Accueil / Meta affirme que ses futurs modèles d'IA pourraient avoir des "conséquences catastrophiques".

Meta affirme que ses futurs modèles d'IA pourraient avoir des "conséquences catastrophiques".

04/02/2025 20:47:18
Meta a publié un document décrivant ses inquiétudes concernant le développement d'IA "catastrophique", capable de mener à des conséquences néfastes pour l'humanité. Le document, intitulé « Cadre pour l'intelligence artificielle frontalière », identifie deux types de systèmes d'IA risqués : ceux à "haut risque" et ceux à "risque critique". Les systèmes à "risque critique" pourraient causer des dommages irréversibles, comme la compromission automatisée de réseaux informatiques protégés. Meta prévoit de bloquer les modèles d'IA jugés trop dangereux, en limitant l'accès et en mettant en place des protections de sécurité. Cependant, le document admet que ces mesures peuvent ne pas être suffisantes pour empêcher la publication de tels modèles.

Un document de politique de Meta décrit les craintes de l'entreprise qu'elle pourrait accidentellement développer un modèle d'IA qui mènerait à des « résultats catastrophiques ». Il décrit ses plans pour empêcher la publication de tels modèles, mais admet qu'il ne peut pas nécessairement y parvenir.

Parmi les capacités que l'entreprise redoute le plus se trouve un système d'IA capable de pénétrer la sécurité des réseaux informatiques d'entreprises ou gouvernementaux, même les mieux protégés, sans intervention humaine...

Meta prévoit de bloquer les modèles d'IA "catastrophiques".

TechCrunch a repéré le document d'orientation intitulé « Cadre pour l'intelligence artificielle frontalière ».

Le document, que Meta appelle son cadre d'IA Frontier, identifie deux types de systèmes d'IA que l'entreprise juge trop risqués pour être publiés : des systèmes « à haut risque » et des systèmes « à risque critique ».
Selon Meta, les systèmes « à haut risque » et « à risque critique » sont tous deux capables d'aider à des cyberattaques, des attaques chimiques et biologiques. La différence réside dans le fait que les systèmes « à risque critique » pourraient entraîner un « résultat catastrophique qui ne peut être atténué dans le contexte de déploiement proposé ». Les systèmes à haut risque, en revanche, pourraient rendre une attaque plus facile à mener, mais pas aussi fiablement qu'un système à risque critique.

La société explique sa définition d'un « résultat catastrophique » :

Les conséquences catastrophiques sont des conséquences qui auraient des impacts néfastes importants, dévastateurs et potentiellement irréversibles sur l'humanité, pouvant être réalisées de manière plausible comme résultat direct de l'accès à nos modèles d'IA.

Un exemple donné est la « compromission automatisée de bout en bout d’un environnement à grande échelle corporatif protégé par les meilleures pratiques ». En d'autres termes, une IA capable de pénétrer n'importe quel réseau informatique sans avoir besoin d'aide humaine.

Autres sont :

  • Découverte et exploitation automatisées des vulnérabilités de jour zéro
  • Fraudes entièrement automatisées à l'encontre d'individus et d'entreprises, causant des dommages généralisés.
  • Le développement et la prolifération d'armes biologiques à haut impact.

L'entreprise affirme qu'en cas d'identification d'un risque critique, elle mettra immédiatement fin au travail sur le modèle et s'efforcera de garantir qu'il ne puisse pas être publié.

Admet que le confinement peut ne pas être possible.

Le document de Meta admet franchement que le mieux qu'il puisse faire dans ces circonstances est de faire de son mieux pour s'assurer que le modèle ne soit pas publié, mais ses mesures peuvent ne pas être suffisantes.

L'accès est strictement limité à un petit nombre d'experts, ainsi que des protections de sécurité pour empêcher le piratage ou l'exfiltration dans la mesure où cela est techniquement faisable et économiquement viable.

Vous pouvez consulter le document complet de politique ici.

Photo par Cash Macanaya sur Unsplash

"

Vous pourriez aimer