Startseite / Meta sagt, zukünftige KI-Modelle könnten "katastrophale Folgen" haben.

Meta sagt, zukünftige KI-Modelle könnten "katastrophale Folgen" haben.

04.02.2025 20:47:18
Meta hat ein internes Dokument veröffentlicht, das die potenziellen Gefahren künstlicher Intelligenz (KI) beschreibt und Pläne zur Eindämmung von "katastrophalen" KI-Modellen enthält. Das Dokument identifiziert zwei Arten von KI-Systemen als besonders riskant: "hochriskante" und "kritisch risikoreiche" Systeme. Beide könnten für Cyberangriffe, chemische oder biologische Angriffe missbraucht werden, aber "kritisch risikoreiche" Systeme könnten zu "katastrophalen Ergebnissen" führen, die nicht abgemildert werden können. Meta definiert "katastrophale Ergebnisse" als Ereignisse mit weitreichenden und möglicherweise irreversiblen schädlichen Auswirkungen auf die Menschheit. Beispiele hierfür sind der automatische Einbruch in hochgesicherte Computernetzwerke oder die Entwicklung von biologischen Waffen. Das Unternehmen plant, bei Identifizierung eines "kritischen Risikos" die Arbeit an einem Modell sofort einzustellen und zu verhindern, dass es veröffentlicht wird. Meta gibt jedoch zu, dass dies unter diesen Umständen bestenfalls alles sein kann, um eine Veröffentlichung zu verhindern: >"*Der Zugriff ist streng auf eine kleine Anzahl von Experten beschränkt, zusammen mit Sicherheitsmaßnahmen, um Hacking oder Datenexfiltration so weit wie technisch machbar und wirtschaftlich praktikabel zu verhindern.*"

Ein internes Dokument von Meta beschreibt die Befürchtungen des Unternehmens, möglicherweise versehentlich ein KI-Modell zu entwickeln, das zu „katastrophalen Ergebnissen“ führen könnte. Es beschreibt seine Pläne, die Veröffentlichung solcher Modelle zu verhindern, gibt aber zu, dass dies möglicherweise nicht möglich ist.

Zu den Fähigkeiten, die das Unternehmen am meisten befürchtet, gehört ein KI-System, das in die Sicherheit selbst der am besten geschützten Unternehmens- oder Regierungscomputernetze eindringen könnte, ohne menschliche Hilfe...

Meta plant, "katastrophale" KI-Modelle zu blockieren.

TechCrunch entdeckte das Richtliniendokument mit dem unauffälligen Titel "Frontier AI Framework".

Das Dokument, das Meta als „Frontier AI Framework“ bezeichnet, identifiziert zwei Arten von KI-Systemen, die das Unternehmen als zu riskant für eine Veröffentlichung erachtet: „hochriskante“ und „kritisch risikoreiche“ Systeme.

Meta definiert sowohl "hochriskante" als auch "kritisch risikoreiche" Systeme als solche, die bei Cyberangriffen, chemischen und biologischen Angriffen hilfreich sein könnten. Der Unterschied besteht darin, dass „kritisch risikoreiche“ Systeme zu einem „katastrophalen Ergebnis führen könnten, das im vorgeschlagenen Einsatzkontext nicht abgemildert werden kann“. Hochrisikosysteme könnten einen Angriff zwar leichter durchführen lassen, aber nicht so zuverlässig oder vertrauenswürdig wie ein kritisch risikoreiches System.

Das Unternehmen erläutert seine Definition eines "katastrophalen" Ergebnisses:

Katastrophale Folgen sind solche Ereignisse, die weitreichende, verheerende und möglicherweise irreversible schädliche Auswirkungen auf die Menschheit haben könnten, die plausibel als direktes Ergebnis des Zugangs zu unseren KI-Modellen eintreten könnten.

Ein Beispiel hierfür ist der „automatische End-zu-End-Kompromiss eines nach Best-Practice-Standards geschützten Unternehmensnetzwerks“. Mit anderen Worten: Eine KI, die in jedes Computernetzwerk eindringen kann, ohne menschliche Hilfe zu benötigen.

Andere sind:

  • Automatische Entdeckung und Ausnutzung von Zero-Day-Sicherheitslücken
  • Vollständig automatisierte Betrügereien gegen Einzelpersonen und Unternehmen, die weitreichende Schäden verursachen.
  • Die Entwicklung und Verbreitung von „hochwirksamen biologischen Waffen“.

Das Unternehmen gibt an, dass es bei Identifizierung eines kritischen Risikos die Arbeit am Modell sofort einstellen und sicherstellen wird, dass es nicht veröffentlicht werden kann.

Geständnis, dass die Eindämmung möglicherweise nicht möglich ist.

Metas Dokument gibt offen zu, dass es unter diesen Umständen bestenfalls alles daran setzen kann, um eine Veröffentlichung des Modells zu verhindern, aber seine Maßnahmen mögen nicht ausreichen (*Kursivschrift ist unsere Betonung*):

Der Zugriff ist streng auf eine kleine Anzahl von Experten beschränkt, zusammen mit Sicherheitsmaßnahmen, um Hacking oder Datenexfiltration so weit wie technisch machbar und wirtschaftlich praktikabel zu verhindern.

Den vollständigen Richtliniendokument finden Sie hier.

Foto von Cash Macanaya auf Unsplash

" Letzte Änderungen: * HTML-Struktur beibehalten. * Blockquote-Tags hinzugefügt, um die Zitate zu markieren.

Das könnte Ihnen gefallen