KI und Ethik: Interview mit Francesca Rossi, IBM Fellow

Transparenz

Angesichts des fortschreitenden Wandels in Unternehmen durch künstliche Intelligenz (KI) sprach Techopedia mit Francesca Rossi, einer IBM Fellow und prominenten Verfechterin der Ethik-KI, über die zum Nachdenken anregende Perspektive der Integration menschlicher Werte in den Kern von KI-Systemen.

Rossi erl?uterte den Ansatz von IBM zur F?rderung von KI und ihre Strategien zur Verbesserung der Intelligenz, zum Schutz der Eigentumsrechte an Daten und zur Gew?hrleistung der Transparenz in der KI-Technologie.

Hier erfahren Sie mehr über das Engagement von Rossi und IBM gegen Vorurteile in der KI und die entscheidende Rolle von ethischen Praktiken bei der Unterstützung von Innovationen.

über Francesca Rossi

Francesca Rossi
Francesca Rossi

Francesca Rossi ist ein IBM Fellow und AI Ethics Global Leader. Au?erdem ist sie GPAI-Expertin und Mitglied des Lenkungsausschusses, IEEE-Mitglied des Führungsgremiums der KI-Ethik-Initiative und Ko-Vorsitzende des Global Future Council von WEF (Weltwirtschaftsforum) zu KI für die Menschheit. Sie ist Mitverfasserin des ACM TechBrief: Generative Artificial Intelligence.

Ihre Forschungsprojekte zielen auf die Einbettung menschlicher Werte in KI-Systeme ab.

Rossi betont die Bedeutung gemeinsamer Anstrengungen auf dem Weg in eine Zukunft, in der KI entwickelt und – hoffentlich – verantwortungsvoll eingesetzt wird.

Wichtigste Erkenntnisse

  • IBM verfolgt einen einheitlichen Ansatz in Bezug auf die KI-Ethik, der menschliche Intelligenz, Dateneigentumsrechte und eine transparente, erkl?rbare Technologie umfasst.
  • IBM setzt sich mit KI-Vorurteilen auseinander, indem es gemischte Entwicklerteams unterstützt und Open-Source-Tools wie AI Fairness 360 zur F?rderung von Gerechtigkeit und Inklusivit?t in KI-Modellen schafft.
  • Die ethischen KI-Praktiken von IBM, einschlie?lich ihrer Open-Source-Beitr?ge und der watsonx-Plattform, sind ein Beispiel dafür, wie ethische Erw?gungen eine nachhaltige und verantwortungsvolle technologische Innovation beschleunigen k?nnen.
  • Rossi betont die Notwendigkeit proaktiver, gemeinsamer Bemühungen im Bereich der KI, an denen Unternehmen, Regierungen, Hochschulen und Privatpersonen gleicherma?en mitwirken, um eine verantwortungsvolle Nutzung und Entwicklung von KI-Technologien sicherzustellen.

Frage: Wie geht IBM bei der Entwicklung und Umsetzung von ethischen KI-Prinzipien in seiner Gesch?ftst?tigkeit vor?

Antwort: Wir haben eine zentralisierte interne Governance. Das bedeutet, auch wenn IBM ein globales Unternehmen mit Niederlassungen auf der ganzen Welt ist, handelt es sich bei der zentralisierten Verwaltung der KI-Ethik und -Grunds?tze um konkrete Ma?nahmen, die unabh?ngig vom Unternehmensstandort gleich sind.

Wir bewerten die Risiken spezifischer KI-L?sungen, die wir unseren Kunden anbieten, um zu verstehen, ob sie mit unseren Prinzipien übereinstimmen.

Dies ist der erste Schritt auf dem Weg zur KI-Ethik, den eine Organisation gehen kann.

Es ist ein guter Ausgangspunkt, der das Szenario vorgibt, wohin man gehen will. Unsere Grunds?tze besagen zum Beispiel, dass KI die menschliche Intelligenz erg?nzen und nicht ersetzen sollte.

Damit ist nicht gemeint, dass keine Aufgabe automatisiert werden sollte, aber wir sollten diese Technologie nutzen, um unsere F?higkeiten, Intelligenz, Kreativit?t und Probleml?sungsf?higkeit zu erweitern.

Wir sind auch der Meinung, dass die Daten demjenigen geh?ren, der sie erstellt und erzeugt hat, und nicht demjenigen, der sie nutzt. Da IBM ein B2B-Unternehmen ist, sind unsere Kunden keine Privatpersonen.

Unsere Kunden sind andere Unternehmen. Wenn wir also etwas für einen Kunden tun, werden die Erkenntnisse und Daten, die wir für diesen Kunden nutzen, nicht für einen anderen Kunden wiederverwendet. Diese Daten bleiben also dort.

Ein weiterer Grundsatz ist, dass die Technologie, einschlie?lich der KI, erkl?rbar und transparent sein sollte. Ausgehend von diesen Prinzipien haben wir uns also auf Transparenz, Erkl?rbarkeit, Robustheit und Datenschutz konzentriert.

Und jetzt, mit generativer KI, auf die verantwortungsvolle Generierung von Inhalten und ihre gesellschaftlichen Auswirkungen.

Eines der wichtigsten Dinge, die wir im Laufe der Jahre gelernt haben, ist, dass ein Tech-Unternehmen bei einem technologischen Problem oft sagt, dass das Problem nur mit noch mehr Technologie gel?st werden kann.

Man sagt also: ?Es gibt ein Problem mit KI“, und dann hei?t es, man solle das Problem mit KI l?sen. Das Schwierigste ist jedoch, die Denkweise der Menschen zu ?ndern, die die Technologie entwickeln.

Bis vor ein paar Jahren war jeder Programmierer daran gew?hnt, nur an die Technologie zu denken und nicht an die gesellschaftlichen Folgen.

Die Teams wussten nicht, was es bedeutet, voreingenommen zu sein oder aufgrund von Vorurteilen in den Daten oder im Entwicklungsprozess eine Diskriminierung zu verursachen.

Wir mussten ihnen also helfen zu verstehen. Dies erreichten wir durch Schulungen, Design-Thinking-Sitzungen und die Bedeutung all dieser Dinge für ihre t?gliche Arbeit.

Potenzielle Vorurteile bei KI

Frage: Wie geht IBM mit potenziellen Vorurteilen in KI-Systemen um, und welche Strategien gibt es, um Fairness und Inklusivit?t in KI-Modellen zu gew?hrleisten?

Antwort: Bei traditionellen Ans?tzen des maschinellen Lernens k?nnen Vorurteile oder m?gliche Verzerrungen hinzukommen.

Diese müssen abgemildert werden, da sie zu L?sungen für das maschinelle Lernen führen k?nnen, die eine Diskriminierung zwischen verschiedenen Personengruppen bewirken.

Trainingsdaten k?nnen mit Variablen korrelieren, die wir als Menschen nicht sehen.

Trotzdem k?nnen die Technologie und die Trainingsschritte des maschinellen Lernens gefunden und bei der Entscheidungsfindung verwendet werden.

Jede Phase der Entwicklung, vom Training über das Testen bis hin zur endgültigen L?sung, kann von Vorurteilen begleitet sein.

Diese Maschinen k?nnen Vorurteile enthalten, weil wir, Menschen, voreingenommen sind. Und wir sind uns dessen nicht einmal bewusst.

Wir neigen unbewusst zu Vorurteilen. Wir haben so viele verschiedene kognitive Verzerrungen, wenn wir Entscheidungen treffen.

Deshalb finden wir diese Voreingenommenheit in den Trainingsdaten; wir k?nnten sie in jeder Entscheidung der Entwickler finden.

Wichtig ist, dass die Teams so vielf?ltig wie m?glich sind, mit unterschiedlichen Hintergründen, Geschlechtern und Kenntnissen, damit sie bei ihren Entscheidungen die Voreingenommenheit der anderen entdecken k?nnen.

Frage: K?nnen Sie Beispiele dafür nennen, wie die ethischen KI-Praktiken von IBM die KI-Branche beeinflusst und sogar neue Standards für andere gesetzt haben?

Antwort: IBM hat AI Fairness 360 entwickelt, das auch an die Linux Foundation gespendet wurde. Es ist quelloffen, enth?lt viele KI-Tools, die bereits entwickelt wurden, und steht jedem zur Verfügung, der ethische KI bauen m?chte.

Au?erdem haben wir weitere Toolkits für Erkl?rbarkeit, Fairness, Robustheit und Datenschutz geschaffen, die ?ffentlich zug?nglich sind.

Inzwischen gibt es eine Tendenz zur Ver?ffentlichung von Open-Source-L?sungen, um einige der Risiken, die die Technologie mit sich bringt, zu beseitigen.

Damit wird aber auch sichergestellt, dass die Technologie für alle zug?nglicher wird, auch für die Wissenschaft, die über weniger Ressourcen verfügt als die Unternehmen.

Wichtig ist, den Fortschritt richtig voranzutreiben und das Machtungleichgewicht zu vermeiden – zwischen denjenigen, die über die Ressourcen zur Entwicklung und Nutzung der Werkzeuge verfügen, und denjenigen, die sie nicht haben.

Entscheidend ist, eine bessere Zug?nglichkeit zu gew?hrleisten, um die Entwicklung von KI-F?higkeiten zu optimieren und voranzutreiben und gleichzeitig das Verst?ndnis und die Erarbeitung von Risikominderungsma?nahmen zu beschleunigen.

Gesellschaftliche Herausforderungen der KI

Frage: Gibt es weitere ethische oder gesellschaftliche Herausforderungen, die Ihrer Meinung nach in den n?chsten Jahren an Bedeutung gewinnen werden?

Antwort: Wir wissen, dass generative KI-Systeme nur schwer erkennen k?nnen, was falsch und was wahr ist, und daher Inhalte erzeugen k?nnen, die nicht der Realit?t entsprechen.

Diese sogenannten Halluzinationen k?nnen auch Inhalte generieren, die nicht mit bestimmten Werten übereinstimmen.

Die Tatsache, dass sie Fehlinformationen oder Informationen erzeugen k?nnen, die nicht wahr sind, ist sicherlich etwas, auf das man sehr sorgf?ltig achten muss.

Ein weiteres Risiko sind Deepfakes. Natürlich k?nnen diese Systeme Bilder oder Videos erstellen, die von den echten kaum zu unterscheiden sind. Wir müssen also verstehen, wie wir solche F?lle mit Strategien angehen k?nnen.

Das Risiko bei der KI besteht darin, dass sie für viele verschiedene Zwecke eingesetzt werden kann. Einige k?nnen sehr risikoreich sein, andere wiederum sehr banal.

Ein geringes Risiko k?nnte die Entscheidung sein, welcher Film auf Netflix empfohlen wird. Aber das ist eine andere Ebene des Risikos als eine Empfehlung, welche Therapie für einen Patienten geeignet ist.

Beide k?nnen jedoch auf dem gleichen Verfahren und Grundmodell aufbauen.

Daraus schlie?e ich, dass sich die Regulierung auf die Anwendungen und nicht auf die vorgeschaltete Technologie konzentrieren sollte.

Es gibt also diese zus?tzlichen Herausforderungen im Zusammenhang mit den M?glichkeiten der Technologie, aber auch die Grenzen und politischen Fragen, die diese neue Welle der KI noch komplexer machen.

Frage: Was sollten Unternehmen tun, um den Einsatz generativer KI verantwortungsvoll voranzutreiben?

Antwort: IBM hat vor kurzem eine neue Plattform namens watsonx vorgestellt, die unseren Kunden beim Aufbau einer KI-L?sung helfen soll. Diese Plattform besteht aus drei Komponenten.

Die erste hei?t watsonx.data und konzentriert sich auf Daten, die für jeden Ansatz des maschinellen Lernens wichtig sind.

Die zweite Komponente hei?t watsonx.ai, mit der man den Ansatz des maschinellen Lernens und eine L?sung entwickelt.

Die dritte Komponente schlie?lich hei?t watsonx.governance, wo alles untergebracht ist, was wir über KI-Ethik gelernt haben.

Die Governance muss genauso wichtig sein wie die beiden anderen Teile. Sie sollte nicht eine zus?tzliche Aufgabe sein, die ?nett zu haben“ ist. Sie muss ein integraler Bestandteil sein, genau wie die Daten und die Entwicklung der KI-L?sung.

Ein weiterer Punkt, den die Unternehmen bedenken sollten, ist die Auffassung, dass die KI-Ethik sie manchmal am Geldverdienen hindert. Aber das ist sehr kurzsichtig.

Sie sollte den Weg zur richtigen Art von Innovation nicht verlangsamen, sondern beschleunigen.

Innovation muss verantwortungsvoll sein. Andernfalls wird sie alle m?glichen Arten von Chaos verursachen und vielen Akteuren in der Gesellschaft Schaden zufügen.

Die KI-Ethik geht also nicht in eine andere Richtung als der Profit, sondern in dieselbe Richtung, um aus der richtigen Art von Innovation Gewinn zu ziehen.

Jüngste Studien haben gezeigt, dass Unternehmen, die sich diese Einstellung zu eigen machen, erfolgreicher sind als solche, die auf Schleichwegen beharren.

Auf dem Laufenden bleiben

Frage: Wie sollten sich Organisationen und Privatpersonen über die ethischen Implikationen der sich rasch entwickelnden KI-Technologien informieren?

Antwort: Wir entwickeln viele Bildungsmaterialien intern bei IBM, aber wir arbeiten auch extern. Wir kooperieren mit Coursera, um Module für die Ausbildung von Nutzern zu Themen wie KI-Ethik und Erkl?rbarkeit bereitzustellen.

Vor kurzem haben wir in watsonx einen Risikoatlas aufgenommen.

Diese Informationen werden dann in eine Online-Tabelle umgewandelt, die die Kunden im Internet unter Berücksichtigung der Risiken im Zusammenhang mit der Inhaltserstellung durchsuchen k?nnen.

Es ist wichtig, das Bewusstsein zu sch?rfen, denn viele Dinge gehen schief, wenn KI nicht angemessen eingesetzt wird oder man sich ihrer derzeitigen Grenzen und Risiken nicht im Klaren ist.

Frage: Was stimmt Sie hoffnungsvoll für die Zukunft?

Antwort: Wir müssen zusammenarbeiten. In den letzten zehn Jahren habe ich gesehen, wie wir uns von einer kleinen Gruppe von Menschen, die darüber nachdachten, was KI-Ethik bedeutet, zu einem Ort entwickelt haben, an dem sie überall zu finden ist.

Aber für die Zukunft müssen wir zusammenarbeiten, und zwar ganz bewusst.

Bei einem passiven Ansatz warten wir auf die Probleme und bessern dann nach. Wir müssen jedoch proaktiv, zielgerichtet und kooperativ sein.

Diese Open-Source-Tendenz oder das offene Innovations?kosystem ist für alle von Bedeutung.

Nicht nur diejenigen, die über genügend Ressourcen zur Teilnahme an der KI-Revolution verfügen, sollten die M?glichkeit haben, ihre Talente zur Weiterentwicklung der KI und zur F?rderung eines verantwortungsvollen Einsatzes dieser Technologie einzubringen.

Unternehmen spielen dabei eine wichtige Rolle, aber auch Regierungen, Normungsgremien, Hochschulen und Ausbilder für die n?chste Generation, die KI-Systeme entwickeln und nutzen wird.

Darüber hinaus muss jeder von uns in seinem eigenen Leben sorgf?ltig darüber nachdenken, wie er die Technologie am verantwortungsvollsten einsetzt und welche Auswirkungen die Technologie auf unser Leben hat.

Verwandte Begriffe

In Verbindung stehende Artikel

Neil C. Hughes
Tech Journalist
Neil C. Hughes
Tech Journalist

Neil ist ein freiberuflicher Tech-Journalist mit über zwei Jahrzehnten IT-Erfahrung. Er wurde als einer der Top Voices in Technology von LinkedIn gefeiert und vom CIO Magazine und ZDNet für seine einflussreichen Einblicke anerkannt. Neil hat für Publikationen wie INC, TNW, TechHQ und Cybernews geschrieben und moderiert au?erdem den beliebten Tech Talks Daily Podcast.

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/