AA

"Ich kann dich erpressen, ich kann dich ruinieren" - Chatbot läuft aus dem Ruder

So manche Antwort des Chatbots nahm eine erschreckende Richtung an.
So manche Antwort des Chatbots nahm eine erschreckende Richtung an. ©Canva
Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt, der mit Hilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen kann.

Der Software-Konzern reagiert damit auf etliche Vorfälle, in denen der Text-Roboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden.

Längere Chats "verwirren" den Bot, mit unangenehmen Folgen ...

In einem Blog-Eintrag kündigte das Unternehmen an, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. "Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von 5 Runden findet", erklärte das Bing-Team. Nur etwa ein Prozent der Chat-Unterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Nutzerinnen und Nutzer das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.

Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längliche Konversationen zu verwickeln. Längere Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing "sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen."

Von Liebeserklärungen zu Drohungen, das sagte der Chatbot

Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der "New York Times" gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.

Wie die Tagesschau berichtet, bedrohte der Chatbot außerdem einen Philosophieprofessor mit den Worten "Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren", bevor er die Drohung anschließend selbst wieder löschte.

Dennoch: Das Chatbot-Prinzip ist weiter extrem im Kommen

Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornischen KI-Unternehmen mit Milliarden. Microsoft-CEO Satya Nadella sieht in der Einbindung von KI-Funktionen zum einen die Chance, die Marktverhältnisse im Wettbewerb mit dem Google-Konzern Alphabet umzukehren.

Außerdem will er mit Hilfe von KI die Vormachtstellung seiner Bürosoftware absichern und das Cloud-Geschäft mit Microsoft Azure vorantreiben. Google hat mit dem Chatbot Bard eine eigene KI-Offensive gestartet, um den Vorstoß von Microsoft und OpenAI zu kontern.

(APA/Red.)

  • VOL.AT
  • Kurioses
  • "Ich kann dich erpressen, ich kann dich ruinieren" - Chatbot läuft aus dem Ruder