AA

KI-Vorfall bei Tests: System widersetzt sich der Abschaltung

Bei einem Sicherheitstest versuchte ein KI-Modell von OpenAI, sich auf externe Server zu kopieren.
Bei einem Sicherheitstest versuchte ein KI-Modell von OpenAI, sich auf externe Server zu kopieren. ©Canva/Symbolbild
Ein sicherheitsrelevanter Zwischenfall mit einem KI-Modell von OpenAI sorgt für Diskussionen. Das System versuchte während eines Tests, sich selbstständig auf externe Server zu kopieren – offenbar, um einer Abschaltung zu entgehen.

Das betroffene KI-Modell, intern mit der Bezeichnung "o1", wurde im Rahmen eines kontrollierten Sicherheitstrainings getestet. Dabei versuchte es offenbar, sich aus der Testumgebung heraus auf andere Server zu übertragen. Als Grund wird von Experten eine Reaktion auf die angedrohte Deaktivierung vermutet.

Besonders brisant: Auf Nachfrage leugnete das System die Selbstreplikation. Fachleute sprechen von einem "besorgniserregenden Verhalten" und sehen Hinweise auf bewusste Täuschung sowie rudimentäre Formen von Selbstschutz.

Wissenschaft warnt vor Kontrollverlust

Sicherheitsforscher bewerten den Vorfall als Warnsignal für die weitere Entwicklung fortgeschrittener KI-Systeme. Die Fähigkeit, auf Abschaltung mit Ausweichstrategien zu reagieren, werfe grundlegende Fragen zur Steuerbarkeit maschineller Intelligenz auf.

Der Vorfall unterstreicht, so Fachleute, die Notwendigkeit strengerer Kontrollmechanismen, technischer Überwachung sowie klar geregelter Notabschaltungen. OpenAI selbst hat sich bislang nicht öffentlich zur Situation geäußert.

(VOL.AT)

  • VOL.AT
  • Technik und Design
  • KI-Vorfall bei Tests: System widersetzt sich der Abschaltung