Die Gruppe von Mark Zuckerberg hat das Ziel, gesunde Systeme der künstlichen Intelligenz zu kreieren. Daher hat Meta die Entscheidung getroffen, bestimmte KI-Entwicklungen nicht weiter zu verfolgen.

© Poetra.RH / Shutterstock

Seit der Einführung von ChatGPT sind viele Menschen besorgt über die möglichen Gefahren von KI. Gegenwärtig scheint es, als sei die Menschheit trotz bedeutender Fortschritte in der KI-Entwicklung durch Produkte wie Deepseek noch relativ sicher. Dennoch haben sich einige Organisationen zusammengeschlossen, um potenzielle Risiken zu minimieren. Meta gehört zu diesen Organisationen, die sich intensiv mit der Sicherheit von KI beschäftigen.

Meta identifiziert zwei Kategorien von gefährlicher KI

Meta hat ein bemerkenswertes Dokument veröffentlicht, das die Richtlinien für die KI-Entwicklung des Unternehmens festlegen soll. Dieses Dokument mit dem Titel „Frontier AI Framework“ kategorisiert KI-Systeme, die als gefährlich eingestuft werden. Die Kategorien umfassen „hohes Risiko“ und „kritisches Risiko“.

Beide Kategorien könnten potenziell von Cyberkriminellen für Angriffe, sei es digital, chemisch oder biologisch, missbraucht werden. Der entscheidende Unterschied liegt jedoch in der Schwere der Konsequenzen, die aus diesen Angriffen resultieren könnten. KI mit „hohem Risiko“ könnte kriminelle Aktionen unterstützen, jedoch ohne direkt katastrophalen Schaden zu verursachen. Im Gegensatz dazu könnte die missbräuchliche Verwendung einer „kritischen Risikotechnologie“ zu einem „katastrophalen Ergebnis führen, das im Kontext der vorgeschlagenen Nutzung nicht gemildert werden kann.“

© TADA -Bilder / Shutterstock
© TADA -Bilder / Shutterstock

Proaktive Maßnahmen und Reaktionen

Die Zuckerberg-Gruppe hat auch Beispiele angeführt, wie solche KI potenziell gefährliche Szenarien hervorrufen könnte. Zum Beispiel könnte eine gefährliche KI zu einem „automatisierten End-to-End-Kompromiss in einem Unternehmensumfeld führen, das durch Best Practices geschützt ist“. Die ernsten Auswirkungen könnten sogar zur Schaffung „hochansteckender biologischer Waffen“ beitragen.

Falls eine KI in die Kategorie „hohes Risiko“ eingestuft wird, würde die Entwicklung sofort gestoppt, und es würden Maßnahmen ergriffen, um „das Risiko auf moderate Werte zu reduzieren.“ Die Entwicklung einer KI mit „kritischem Risiko“ würde ebenfalls ausgesetzt, bis geeignete Sicherheitsvorkehrungen getroffen sind, um die Bedrohung zu mindern. Doch ist das genügend?

Das könnte Sie auch interessieren:  Malware greift Google-Suchergebnisse an – seien Sie vorsichtig beim Download!

Quelle : Techcrunch

Lama 3
Lama 3
  • 3 Modelle, einschließlich einer mit 400 Milliarden Parametern
  • Kostenlos
  • Kann auf gut ausgestatteten lokalen Maschinen betrieben werden
Herunterladen