Metas KI-Assistent sagte fälschlicherweise, dass der jüngste Attentatsversuch auf den ehemaligen Präsidenten Donald Trump nicht stattgefunden habe, ein Fehler, den ein Unternehmensleiter nun auf die Technologie zurückführt, die seinen Chatbot und andere antreibt.
In einem am Dienstag veröffentlichten Unternehmensblogbeitrag bezeichnet Joel Kaplan, globaler Leiter für Richtlinien bei Meta, die Antworten seiner KI auf Fragen zu den Schießereien als „bedauerlich“. Er sagt, Meta AI sei ursprünglich so programmiert worden, dass es nicht auf Fragen zum Attentatsversuch antworte, aber das Unternehmen habe diese Einschränkung aufgehoben, nachdem es den Leuten aufgefallen sei. Er räumt auch ein, dass „Meta AI in einigen wenigen Fällen weiterhin falsche Antworten lieferte und manchmal behauptete, dass das Ereignis nicht stattgefunden habe – woran wir schnell arbeiten.“
„Diese Art von Reaktionen werden als Halluzinationen bezeichnet. Dies ist ein branchenweites Problem, das wir bei allen generativen KI-Systemen beobachten, und stellt eine ständige Herausforderung für die Art und Weise dar, wie KI künftig mit Echtzeitereignissen umgeht“, fährt Kaplan fort, der die Lobbyarbeit von Meta leitet Bemühungen. „Wie alle generativen KI-Systeme können Modelle ungenaue oder unangemessene Ausgaben zurückgeben, und wir werden uns weiterhin mit diesen Problemen befassen und diese Funktionen verbessern, während sie sich weiterentwickeln und mehr Menschen ihr Feedback teilen.“
Hier gerät nicht nur Meta ins Wanken: Google musste am Dienstag auch Behauptungen widerlegen, dass die Suchfunktion zur automatischen Vervollständigung Ergebnisse zum Attentat zensiere. „Jetzt geht es wieder los, ein weiterer Versuch, die Wahl zu manipulieren!!!“ sagte Trump in einem Beitrag auf Truth Social. „NACH META UND GOOGLE.“
Seit ChatGPT auf der Bildfläche erschienen ist, beschäftigt sich die Technologiebranche damit, die Neigung der generativen KI zu Unwahrheiten einzudämmen. Einige Akteure, wie Meta, haben versucht, ihre Chatbots mit hochwertigen Daten und Echtzeit-Suchergebnissen auszustatten, um Halluzinationen zu kompensieren. Aber wie dieses spezielle Beispiel zeigt, ist es immer noch schwer zu überwinden, wofür große Sprachmodelle von Natur aus konzipiert sind: Dinge erfinden.