HomeNachrichtEin Falschinformationsforscher gibt zu, ChatGPT in seiner Akte verwendet zu haben, bestreitet...

Ein Falschinformationsforscher gibt zu, ChatGPT in seiner Akte verwendet zu haben, bestreitet jedoch, zu wissen, dass KI-„Halluzinationen“ falsche Details hinzugefügt hätten

Mit der Weiterentwicklung der künstlichen Intelligenz wurden die Kommunikation sowie die Art und Weise, wie sie entworfen und präsentiert wird, völlig überarbeitet, aber die zunehmende Abhängigkeit von KI für Inhalte bringt mehrere andere Probleme mit sich. Ein Experte für Fehlinformationen geriet kürzlich in die Kritik, weil er die Technologie zur Erstellung seines Dokuments für eine gerichtliche Einreichung genutzt hatte, das letztendlich gefälschte Zitate enthielt. Was die Sache noch ironischer macht, ist, dass die Klageerhebung ein Versuch war, die Verwendung von KI-generierten Inhalten zur Irreführung von Wählern vor Wahlen zu bekämpfen. Der Forscher hat nun zugegeben, ChatGPT zur Optimierung von Zitaten verwendet zu haben, und ist der Ansicht, dass der Fehler keine Auswirkungen auf die in der Erklärung dargelegten Punkte haben sollte.

Ein Experte für Fehlinformationen gibt nun zu, dass ChatGPT für seine Gerichtsakten verwendet wurde, war sich jedoch nicht bewusst, dass KI-„Halluzinationen“ dem Dokument ungenaue Details hinzugefügt hätten

Jeff Hancock ist ein Stanford-Professor und Experte für Fehlinformationen, der eine eidesstattliche Erklärung für einen Fall eingereicht und das Gesetz von Minnesota unterstützt hat, das den Einsatz von Deep-Fake-Technologie zur Beeinflussung von Wahlen verbietet. Was ursprünglich als Klage gegen den Einsatz von KI zur unrechtmäßigen Beeinflussung von Nutzern gedacht war, wird nun massiv kritisiert, weil das Rechtsdokument ironischerweise KI-generierte Details enthält, die falsche Informationen enthalten, was es unzuverlässig und ungenau macht.

Nun hat der Fehlinformationsexperte in einer zusätzlichen Erklärung zugegeben, dass er ChatGPT-4o zum Organisieren seiner Zitate verwendet hat, sich jedoch nicht bewusst war, dass dadurch gefälschte Details hinzugefügt oder erfundene Referenzen hinzugefügt wurden. Er bestreitet die Verwendung des Tools für andere Teile des Dokuments und erklärt den Fehler für unbeabsichtigt. In der späteren Einreichung schrieb er:

Ich habe den Inhalt der Erklärung verfasst und überprüft, und ich stehe fest hinter jeder der darin gemachten Behauptungen, die alle durch die neueste wissenschaftliche Forschung auf diesem Gebiet gestützt werden und meine Meinung als Experte hinsichtlich der Auswirkungen der KI-Technologie widerspiegeln über Fehlinformationen und ihre gesellschaftlichen Auswirkungen.

Hancock erklärte weiter, dass er zum Erstellen der Zitationsliste sowohl Google Scholar als auch GPT-4o verwendet habe, diese jedoch nicht zum Verfassen des Dokuments verwendet hätten. Er betonte, dass er sich der KI-Halluzinationen nicht bewusst sei, was letztendlich zu den Zitierfehlern geführt habe. Hancock konzentrierte sich dann auf die in der Erklärung gemachten Punkte und wie er zu ihnen steht, die aufgrund der Verwirrung nicht beeinträchtigt werden sollten. Er äußerte:

Ich hatte nicht die Absicht, das Gericht oder den Anwalt in die Irre zu führen. Ich drücke mein aufrichtiges Bedauern für die dadurch entstandene Verwirrung aus. Dennoch stehe ich voll und ganz hinter allen wesentlichen Punkten der Erklärung.

Unabhängig davon, ob das Gericht Hancocks Erklärung für die Fehler in seinem Vortrag akzeptieren würde oder nicht, zeigt es die Risiken des Einsatzes von KI-Tools in rechtlichen Kontexten auf.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here

RELATED ARTICLES

Most Popular

Recommended News