Meta afferma che i suoi modelli di intelligenza artificiale futuri potrebbero avere "risultati disastrosi".

Un documento di politica di Meta descrive le preoccupazioni dell'azienda che potrebbe accidentalmente sviluppare un modello di AI che porterebbe a "risultati catastrofici". Descrive i suoi piani per prevenire il rilascio di tali modelli, ma ammette che potrebbe non essere in grado di farlo.
Tra le capacità che l'azienda teme di più c'è un sistema di intelligenza artificiale in grado di violare la sicurezza anche delle reti informatiche aziendali o governative più protette senza assistenza umana...
Meta prevede di bloccare i modelli di intelligenza artificiale "disastrosi".
TechCrunch ha individuato il documento di politica con il titolo apparentemente innocuo "Framework per l'AI di frontiera".
Il documento, che Meta chiama "Frontier AI Framework", identifica due tipi di sistemi AI che l'azienda ritiene troppo rischiosi per essere rilasciati: sistemi "ad alto rischio" e sistemi "a rischio critico".
Secondo Meta, sia i sistemi "ad alto rischio" che quelli "critici", sono in grado di aiutare negli attacchi informatici, chimici e biologici. La differenza sta nel fatto che i sistemi "a rischio critico" potrebbero comportare un esito catastrofico che non può essere mitigato nel contesto di un impiego proposto. I sistemi ad alto rischio, al contrario, potrebbero rendere un attacco più facile da eseguire ma non con la stessa affidabilità o sicurezza di un sistema a rischio critico.
L'azienda spiega la sua definizione di un esito "disastroso":
Risultato catastrofico sono risultati che avrebbero impatti dannosi su larga scala, devastanti e potenzialmente irreversibili sull'umanità, che potrebbero realizzarsi in modo plausibile come diretta conseguenza dell'accesso ai nostri modelli di IA.
Un esempio fornito è la "compromissione automatica dall'inizio alla fine di un ambiente aziendale su larga scala protetto secondo le migliori pratiche". In altre parole, un'intelligenza artificiale in grado di infiltrarsi in qualsiasi rete informatica senza bisogno dell'aiuto degli esseri umani.
Altri sono:
- Scoperta e sfruttamento automatico di vulnerabilità zero-day.
- Frodi completamente automatizzate contro individui e aziende, causando danni diffusi.
- Lo sviluppo e la diffusione di armi biologiche ad alto impatto.
L'azienda afferma che quando identifica un rischio critico, interromperà immediatamente il lavoro sul modello e cercherà di assicurarsi che non possa essere rilasciato.
Ammette che il contenimento potrebbe non essere possibile.
Il documento di Meta ammette francamente che al meglio può fare è assicurarsi che il modello non venga rilasciato, ma le sue misure potrebbero non essere sufficienti (l'italias è nostro sottolineatura).
L'accesso è rigorosamente limitato a un piccolo numero di esperti, insieme a protezioni di sicurezza per prevenire l'hacking o l'esfiltrazione, nel limite di quanto tecnicamente possibile e commercialmente praticabile.
Puoi leggere l'intero documento sulla politica qui.
Foto di Cash Macanaya su Unsplash
Categorie
Ultimi articoli
- Recensione della tastiera meccanica Satechi Keyboard SM3: silenziosa e perfetta per la produttività.
- Questo vecchio telefono si è trasformato in un pericolo di incendio davanti ai miei occhi.
- 10 modi in cui l'app Invitations di Apple differisce da Calendar di Apple
- Apple al lavoro: Il 2025 sarà l'anno in cui Apple rilascerà un concorrente di Google Workspace?
- È improbabile che Apple organizzi un evento speciale per annunciare l'iPhone SE 4.
- Suggerimenti e soluzioni per le connessioni di oggi del NYT dell'8 febbraio (#608)
- Il supporto per Ubuntu 20.04 LTS sta per concludersi.
- Hai un ritardo nella lettura? Lascia che l'IA ti legga ad alta voce.
- Questo è il mio lettore Blu-ray del Santo Graal.
- Nuove produzioni Apple saranno rilasciate la prossima settimana, ecco cosa arriverà.
Tag più recenti
- silenziosa
- meccanica
- smaltimento
- litio
- gonfie
- differenze
- Apple Calendar
- e-mail aziendale
- Google Workspace
- Connessione