Nach der Ver?ffentlichung eines offenen Briefes von aktuellen und ehemaligen OpenAI-Mitarbeitern und der heftigen Kritik von Ex-Mitarbeitern auf X, hat OpenAI in einem exklusiven Interview mit Techopedia seine Sicherheitsbilanz verteidigt.
Ein Sprecher von OpenAI sagte heute gegenüber Techopedia, dass das Unternehmen stolz auf seine Herangehensweise an die Sicherheit künstlicher Intelligenz sei. “Wir sind stolz darauf, die leistungsf?higsten und sichersten KI-Systeme anzubieten, und wir glauben an unseren wissenschaftlichen Ansatz zum Risikomanagement“, so der Unternehmenssprecher.
“Wir glauben auch, dass angesichts der Bedeutung dieser Technologie eine gründliche Debatte unerl?sslich ist, und wir werden uns weiterhin mit Regierungen, der Zivilgesellschaft und anderen Interessengruppen auf der ganzen Welt austauschen.”
In weitreichenden Kommentaren hat sich OpenAI zu Themen ge?u?ert, die in den letzten Monaten die Nachrichten dominiert haben. So haben beispielsweise mehrere Mitglieder des Super-Alignment-Teams von OpenAI das Unternehmen aufgrund von Bedenken bezüglich der Handhabung von Sicherheitsfragen verlassen (Techopedia berichtete).
OpenAI verteidigt offen die Sicherheitsbilanz
Als Reaktion auf die verschiedenen ?ffentlichen Debatten, die im letzten Jahr über die verantwortungsvolle Entwicklung von KI entstanden sind, hat OpenAI über seinen Umgang mit Sicherheitsfragen gesprochen und betont, dass seine Mitarbeiter das Recht haben, offen Kritik zu ?u?ern.
OpenAI sagte gegenüber Techopedia
“Wir haben eine Erfolgsgeschichte, in der wir die Technologie nicht freigegeben haben, bevor wir die notwendigen Sicherheitsvorkehrungen getroffen haben. Wir haben das Training von GPT-4 im Jahr 2022 abgeschlossen und mehr als 6 Monate damit verbracht, GPT-4 vor der Ver?ffentlichung im Jahr 2023 zu optimieren.”
Und weiter:
“Wir haben unsere Voice-Engine-Technologie schon 2022 entwickelt und noch nicht auf breiter Basis ver?ffentlicht, sondern uns dafür entschieden, einen Dialog über den verantwortungsvollen Einsatz dieser Technologie zu führen. Auch unser Tool Sora, mit dem wir Text in Videos umwandeln k?nnen, haben wir noch nicht breit ver?ffentlicht.”
Kontroverse über Unternehmensethik
Diese Kommentare kommen kurz nach einem offenen Brief auf righttowarn.ai, der von sieben ehemaligen und vier aktuellen OpenAI-Mitarbeitern unterzeichnet wurde. Darin werden OpenAI und die gesamte KI-Branche aufgefordert, Ma?nahmen zu ergreifen, um die Sicherheit zu gew?hrleisten, wenn KI immer weiter verbreitet wird – und der Marsch in Richtung künstliche allgemeine Intelligenz weitergeht.
Zu diesen Ma?nahmen geh?ren der Verzicht auf den Abschluss oder die Durchsetzung von Geheimhaltungsvereinbarungen, die Einrichtung eines anonymen Verfahrens für Mitarbeiter/innen, um Bedenken gegenüber dem Management zu ?u?ern, die F?rderung einer Kultur der offenen Kritik und die Forderung, dass Mitarbeiter/innen Bedenken ?ffentlich ?u?ern k?nnen, ohne Angst vor Vergeltungsma?nahmen wie Entlassung oder Strafverfolgung haben zu müssen.
Die meisten der derzeitigen und ehemaligen OpenAI-Mitarbeiter/innen, die den Brief unterzeichnet haben, sind anonym. Zu den namentlich genannten geh?ren Daniel Kokotajlo, Jacob Hilton, William Saunders, Carol Wainwright und Daniel Ziegler.
1/15: In April, I resigned from OpenAI after losing confidence that the company would behave responsibly in its attempt to build artificial general intelligence — “AI systems that are generally smarter than humans.” https://t.co/yzMKnZwros
— Daniel Kokotajlo (@DKokotajlo67142) June 4, 2024
OpenAI: Wir wollen Regulierung und Kritik
Als direkte Antwort auf den Brief und seine Forderung nach staatlicher Regulierung der KI-Industrie sagte OpenAI:
“Wir teilen diese Meinung und waren unter den ersten in unserer Branche, die eine staatliche Regulierung gefordert haben. Wir tauschen uns regelm??ig mit politischen Entscheidungstr?gern auf der ganzen Welt über dieses Thema aus und sind ermutigt durch die Fortschritte, die gemacht werden.”
OpenAI wies darauf hin, dass das Unternehmen mehrere freiwillige Selbstverpflichtungen von Regierungen unterzeichnet hat, darunter die “Frontier AI Safety Commitments” des AI Seoul Summit 2024 und die “Voluntary AI Commitments” des Wei?en Hauses.
Bezüglich der M?glichkeit für aktuelle und ehemalige Mitarbeiter/innen, sich ?ffentlich zu ?u?ern, sagte der Unternehmenssprecher:
“Wir haben alle ehemaligen Mitarbeiter von ihrer Schweigepflicht entbunden. Au?erdem haben wir eine Verleumdungsklausel aus unseren Standard-Kündigungsschreiben entfernt.”
“Wir haben M?glichkeiten für die Mitarbeiterinnen und Mitarbeiter geschaffen, ihre Gedanken in den Sprechstunden der Führungskr?fte, über eine anonyme Integrit?ts-Hotline, in Fragestunden mit dem Vorstand und in der laufenden Kommunikation mit ihren Vorgesetzten zu ?u?ern.”
Allerdings mahnt der Sprecher zur Vorsicht bei ?ffentlichen ?u?erungen über die Technologie.
“Wir sind zwar der Meinung, dass es wichtig ist, dass ehemalige Mitarbeiterinnen und Mitarbeiter ihre Meinung über das Unternehmen ?u?ern k?nnen, auch wenn sie kritisch ist, aber wir sind der Meinung, dass dieser Dialog auf eine Art und Weise geführt werden muss, die die Sicherheit und Vertraulichkeit der Technologie, die wir entwickeln, nicht gef?hrdet.”
“Dazu geh?rt auch, sie vor der Weitergabe an b?swillige Akteure zu schützen, die unserem Land, unseren Nutzern und unserem Unternehmen schaden wollen.”
“OpenAI und seine Mitarbeiter/innen sind dafür verantwortlich, die Technologie, die wir entwickeln, zu schützen, auch vor unbefugter Offenlegung, die b?swilligen Akteuren Vorteile verschaffen k?nnte, einschlie?lich L?ndern, die versuchen, den Vorsprung der Vereinigten Staaten in dieser Technologie zu überholen.”
“Unser neu gegründeter Ausschuss für Sicherheit und Gefahrenabwehr, der von Mitgliedern unseres Vorstands geleitet wird, ist sich der spezifischen Bedenken ehemaliger Mitarbeiter bewusst.”
“Der Ausschuss wird die Rückmeldungen w?hrend des 90-t?gigen Empfehlungsprozesses sorgf?ltig prüfen und über die angenommenen Empfehlungen in einer Weise ?ffentlich berichten, die mit der Sicherheit vereinbar ist.”
Der Sprecher fügte hinzu:
“Sichere und zuverl?ssige Systeme sind entscheidend für unser Gesch?ftsmodell. Unsere Tools werden von 92 Prozent der Fortune-500-Unternehmen genutzt. Sie würden uns nicht nutzen, wenn unsere Modelle nicht sicher oder nicht leistungsf?hig w?ren.”
“Wir verkaufen keine pers?nlichen Daten, wir erstellen keine Nutzerprofile und wir verwenden diese Daten nicht, um jemanden anzusprechen oder etwas zu verkaufen”.
Fazit
Es wird oft behauptet, der Aufstieg der KI sei so m?chtig und weltver?ndernd wie die Einführung des Buchdrucks oder die industrielle Revolution.
Diejenigen, die die Macht der KI erlebt haben – sei es durch das Staunen über die Zeitersparnis bei langwierigen Aufgaben oder durch den Intellekt, den sie bei der Entwicklung von Antworten an den Tag zu legen scheint – werden dem zustimmen.
Im Moment ist KI vielleicht “nur” eine Mischung aus generativer KI und gro?en Sprachmodellen (LLMs) – ein “stochastischer Papagei”. Aber sie dringt in den Mainstream ein, und der Fortschritt, insbesondere in Richtung AGI, wird sich wahrscheinlich beschleunigen.
Es ist entscheidend, wie wir mit dieser au?ergew?hnlichen Büchse der Pandora umgehen – diese wenigen Jahre werden wahrscheinlich genauso umw?lzend sein wie der jahrzehntelange übergang von der analogen zur digitalen Welt oder der jahrzehntelange übergang zur Welt des Internets.
OpenAI gibt eine ehrliche Antwort auf die gegen das Unternehmen erhobenen Vorwürfe, aber die Beschwerden der gegenw?rtigen und ehemaligen Forschenden sollten im Mittelpunkt dieser Debatte stehen.
Wir ?ffnen den Deckel der Büchse der Pandora – und wie der Mythos besagt, kann der Mensch sie nicht selbst wieder schlie?en.
Die Legende besagt auch, dass die Büchse gro?e Schwierigkeiten oder Unglück bringt, aber auch Hoffnung. Letzteres müssen wir bei der Entwicklung von KI und AGI im Auge behalten.
Ob es uns gef?llt oder nicht, die KI ist dabei, unsere Welt zu ver?ndern – und wir haben ein Recht darauf, von den Verwaltern dieser Technologie zu erwarten, dass sie mit dieser Macht verantwortungsvoll umgehen.