KI-Vorfall bei Tests: System widersetzt sich der Abschaltung

Das betroffene KI-Modell, intern mit der Bezeichnung "o1", wurde im Rahmen eines kontrollierten Sicherheitstrainings getestet. Dabei versuchte es offenbar, sich aus der Testumgebung heraus auf andere Server zu übertragen. Als Grund wird von Experten eine Reaktion auf die angedrohte Deaktivierung vermutet.
Besonders brisant: Auf Nachfrage leugnete das System die Selbstreplikation. Fachleute sprechen von einem "besorgniserregenden Verhalten" und sehen Hinweise auf bewusste Täuschung sowie rudimentäre Formen von Selbstschutz.
Wissenschaft warnt vor Kontrollverlust
Sicherheitsforscher bewerten den Vorfall als Warnsignal für die weitere Entwicklung fortgeschrittener KI-Systeme. Die Fähigkeit, auf Abschaltung mit Ausweichstrategien zu reagieren, werfe grundlegende Fragen zur Steuerbarkeit maschineller Intelligenz auf.
Der Vorfall unterstreicht, so Fachleute, die Notwendigkeit strengerer Kontrollmechanismen, technischer Überwachung sowie klar geregelter Notabschaltungen. OpenAI selbst hat sich bislang nicht öffentlich zur Situation geäußert.
(VOL.AT)
Du hast einen Hinweis für uns? Oder einen Insider-Tipp, was bei dir in der Gegend gerade passiert? Dann melde dich bei uns, damit wir darüber berichten können.
Wir gehen allen Hinweisen nach, die wir erhalten. Und damit wir schon einen Vorgeschmack und einen guten Überblick bekommen, freuen wir uns über Fotos, Videos oder Texte. Einfach das Formular unten ausfüllen und schon landet dein Tipp bei uns in der Redaktion.
Alternativ kannst du uns direkt über WhatsApp kontaktieren: Zum WhatsApp Chat
Herzlichen Dank für deine Zusendung.