Home / Meta afferma che i suoi modelli di intelligenza artificiale futuri potrebbero avere "risultati disastrosi".

Meta afferma che i suoi modelli di intelligenza artificiale futuri potrebbero avere "risultati disastrosi".

04/02/2025 20:47:18
Meta ha pubblicato un documento che descrive le preoccupazioni dell'azienda per lo sviluppo accidentale di modelli di intelligenza artificiale (IA) con conseguenze "catastrofiche". Il documento, intitolato "Framework per l'AI di frontiera", identifica due tipi di sistemi AI troppo rischiosi: quelli ad alto rischio e quelli a rischio critico. Entrambe le categorie potrebbero facilitare attacchi informatici, chimici e biologici, ma i sistemi a rischio critico presentano un potenziale di danni irreversibili all'umanità. Meta prevede di bloccare l'accesso a tali modelli, limitando il lavoro ad un piccolo gruppo di esperti e implementando misure di sicurezza per prevenire violazioni. Tuttavia, ammette che queste misure potrebbero non essere sufficienti a contenere completamente i rischi.

Un documento di politica di Meta descrive le preoccupazioni dell'azienda che potrebbe accidentalmente sviluppare un modello di AI che porterebbe a "risultati catastrofici". Descrive i suoi piani per prevenire il rilascio di tali modelli, ma ammette che potrebbe non essere in grado di farlo.

Tra le capacità che l'azienda teme di più c'è un sistema di intelligenza artificiale in grado di violare la sicurezza anche delle reti informatiche aziendali o governative più protette senza assistenza umana...

Meta prevede di bloccare i modelli di intelligenza artificiale "disastrosi".

TechCrunch ha individuato il documento di politica con il titolo apparentemente innocuo "Framework per l'AI di frontiera".

Il documento, che Meta chiama "Frontier AI Framework", identifica due tipi di sistemi AI che l'azienda ritiene troppo rischiosi per essere rilasciati: sistemi "ad alto rischio" e sistemi "a rischio critico".

Secondo Meta, sia i sistemi "ad alto rischio" che quelli "critici", sono in grado di aiutare negli attacchi informatici, chimici e biologici. La differenza sta nel fatto che i sistemi "a rischio critico" potrebbero comportare un esito catastrofico che non può essere mitigato nel contesto di un impiego proposto. I sistemi ad alto rischio, al contrario, potrebbero rendere un attacco più facile da eseguire ma non con la stessa affidabilità o sicurezza di un sistema a rischio critico.

L'azienda spiega la sua definizione di un esito "disastroso":

Risultato catastrofico sono risultati che avrebbero impatti dannosi su larga scala, devastanti e potenzialmente irreversibili sull'umanità, che potrebbero realizzarsi in modo plausibile come diretta conseguenza dell'accesso ai nostri modelli di IA.

Un esempio fornito è la "compromissione automatica dall'inizio alla fine di un ambiente aziendale su larga scala protetto secondo le migliori pratiche". In altre parole, un'intelligenza artificiale in grado di infiltrarsi in qualsiasi rete informatica senza bisogno dell'aiuto degli esseri umani.

Altri sono:

  • Scoperta e sfruttamento automatico di vulnerabilità zero-day.
  • Frodi completamente automatizzate contro individui e aziende, causando danni diffusi.
  • Lo sviluppo e la diffusione di armi biologiche ad alto impatto.

L'azienda afferma che quando identifica un rischio critico, interromperà immediatamente il lavoro sul modello e cercherà di assicurarsi che non possa essere rilasciato.

Ammette che il contenimento potrebbe non essere possibile.

Il documento di Meta ammette francamente che al meglio può fare è assicurarsi che il modello non venga rilasciato, ma le sue misure potrebbero non essere sufficienti (l'italias è nostro sottolineatura).

L'accesso è rigorosamente limitato a un piccolo numero di esperti, insieme a protezioni di sicurezza per prevenire l'hacking o l'esfiltrazione, nel limite di quanto tecnicamente possibile e commercialmente praticabile.

Puoi leggere l'intero documento sulla politica qui.

Foto di Cash Macanaya su Unsplash

Potrebbe interessarti