„Angesichts der Diskrepanz zwischen Ihren öffentlichen Kommentaren und Berichten über die Maßnahmen von OpenAI bitten wir um Informationen über den Whistleblower- und Interessenkonfliktschutz von OpenAI, um zu verstehen, ob ein Eingreifen des Bundes erforderlich sein könnte“, schrieben Warren und Trahan in einem Brief, der exklusiv an The Verge weitergegeben wurde.
Der Gesetzgeber führte mehrere Fälle an, in denen die Sicherheitsverfahren von OpenAI in Frage gestellt wurden. Sie sagten beispielsweise, dass im Jahr 2022 eine unveröffentlichte Version von GPT-4 in einer neuen Version der Microsoft-Suchmaschine Bing in Indien getestet wurde, bevor sie die Genehmigung des Sicherheitsausschusses von OpenAI erhielt. Sie erinnerten auch an Altmans kurzzeitigen Ausscheiden aus dem Unternehmen im Jahr 2023, der zum Teil auf Bedenken des Vorstands zurückzuführen war, „Fortschritte zu kommerzialisieren, ohne die Konsequenzen zu verstehen“.
Der Brief von Warren und Trahan an Altman kommt zu einem Zeitpunkt, an dem das Unternehmen mit einer ganzen Reihe von Sicherheitsbedenken geplagt wird, die oft im Widerspruch zu den öffentlichen Aussagen des Unternehmens stehen. Eine anonyme Quelle teilte der Washington Post beispielsweise mit, dass OpenAI die Sicherheitstests im Eiltempo durchlief, das Superalignment-Team (das teilweise für die Sicherheit verantwortlich war) aufgelöst wurde und ein Sicherheitsmanager mit der Begründung gekündigt habe, dass „Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten sind“. .“ Lindsey Held, eine Sprecherin von OpenAI, bestritt die Behauptungen im Bericht der Washington Post und sagte, dass das Unternehmen „bei unserem Sicherheitsprozess keine Abstriche gemacht hat, obwohl wir uns darüber im Klaren sind, dass der Start für unsere Teams stressig war.“
Auch andere Gesetzgeber haben Antworten auf die Sicherheitspraktiken des Unternehmens gesucht, darunter eine Gruppe von Senatoren unter der Leitung von Brian Schatz (D-HI) im Juli. Warren und Trahan forderten weitere Klarheit zu den Antworten von OpenAI an diese Gruppe, einschließlich der Einrichtung einer neuen „Integrity Line“, über die Mitarbeiter Bedenken melden können.
Unterdessen scheint OpenAI in der Offensive zu sein. Im Juli gab das Unternehmen eine Partnerschaft mit dem Los Alamos National Laboratory bekannt, um zu untersuchen, wie fortschrittliche KI-Modelle die biowissenschaftliche Forschung sicher unterstützen können. Erst letzte Woche gab Altman über Im selben Beitrag sagte Altman auch, dass OpenAI die Nichtverunglimpfungsklauseln für Mitarbeiter und Bestimmungen, die die Annullierung von unverfallbarem Eigenkapital ermöglichen, ein zentrales Thema in Warrens Brief, entfernt habe.
Warren und Trahan baten Altman um Informationen darüber, wie die neue KI-Sicherheitshotline für Mitarbeiter genutzt wird und wie das Unternehmen den Berichten nachgeht. Sie forderten außerdem eine „detaillierte Auflistung“ aller Zeiten, in denen OpenAI-Produkte „Sicherheitsprotokolle umgangen“ haben, und unter welchen Umständen ein Produkt eine Sicherheitsüberprüfung überspringen dürfe. Der Gesetzgeber sucht auch nach Informationen zur Konfliktrichtlinie von OpenAI. Sie fragten Altman, ob er verpflichtet sei, sich von externen Beteiligungen zu trennen, und „welche spezifischen Schutzmaßnahmen bestehen, um OpenAI vor Ihren finanziellen Interessenkonflikten zu schützen?“ Sie forderten Altman auf, bis zum 22. August zu antworten.
Warren weist auch darauf hin, wie lautstark Altman seine Bedenken hinsichtlich der KI geäußert hat. Letztes Jahr warnte Altman vor dem Senat, dass die Fähigkeiten der KI „erheblich destabilisierend für die öffentliche Sicherheit und die nationale Sicherheit“ sein könnten, und betonte, dass es unmöglich sei, jeden möglichen Missbrauch oder jedes Versagen der Technologie vorherzusehen. Diese Warnungen schienen bei den Gesetzgebern Anklang zu finden – im Heimatstaat Kalifornien von OpenAI drängt Senator Scott Wiener auf einen Gesetzentwurf zur Regulierung großer Sprachmodelle, einschließlich Einschränkungen, die Unternehmen rechtlich zur Verantwortung ziehen würden, wenn ihre KI auf schädliche Weise eingesetzt wird.