Kann KI Vorurteile haben?

Transparenz
DAS WICHTIGSTE IM üBERBLICK

Künstliche Intelligenz dr?ngt in unseren Alltag. Sie kann bereits vieles: denken, rechnen, kreativ schreiben und schwierige Fragen beantworten. Aber wie menschlich ist KI eigentlich? Unterliegen auch KI-Systeme wie ChatGPT der Voreingenommenheit? Und wenn ja, welche Gefahr steckt dahinter und wie kann man Stereotype in KI-Modellen verhindern?

Egal, ob man über eine neue Regierungspolitik spricht oder sein Recht verteidigt, Ananas auf die Pizza zu legen – über jedes Thema auf der Welt sind Menschen voreingenommen.

Hier liegt das Problem: Die Vorurteile flie?en in die Modelle des maschinellen Lernens ein, und zwar in die zum Trainieren der Systeme verwendeten Daten, in die Algorithmen zur Erstellung der Muster und in die Art und Weise, wie die Modelle in der Praxis eingesetzt werden.

Was bedeutet das für eine globale Gesellschaft, die sich zunehmend auf Roboterassistenten verl?sst? Wir brauchen eine Aufsicht, die sicherstellt, dass KI-Systeme fair und objektiv sind. Schlie?lich ist es problematisch, menschliche Arbeitspl?tze einfach durch KI zu ersetzen.

Welche Vorurteile gibt es bei KI?

In der Literatur wird h?ufig zwischen datenbedingter, algorithmischer, sozialer und gesellschaftlicher Voreingenommenheit in der KI unterschieden. W?hrend daten- und algorithmenbasierte Verzerrungen auf eine voreingenommene Datenauswahl oder -aufbereitung zurückzuführen sein k?nnen, besteht der Grund für soziale und gesellschaftliche Vorurteile in einer geringeren Vertretung einer Minderheitengruppe in den IT-Teams.

Beim maschinellen Lernen entsteht eine Daten- bzw. algorithmische Verzerrung durch einen systematischen Fehler oder eine Wahrheitsabweichung bei den Prognosen eines Modells. Kommen unbewusste und bewusste Biases in die Datens?tze, die zum Trainieren des Modells verwendet werden, schleichen sie sich auch in die KI-Ergebnisse ein.

In einer Studie wurde untersucht, wie die KI von Unternehmen wie Amazon, Google, Microsoft und IBM mit verschiedenen Hauttypen und Geschlechtern umgeht. Dabei stellte sich heraus, dass die Systeme bei hellh?utigen Gesichtern (sowohl bei M?nnern als auch bei Frauen) deutlich besser funktionierten und die meisten Fehler bei dunkelh?utigen Frauen machten.

Was war der Grund? Die Trainingsdaten waren nicht vielf?ltig genug. Kein Wunder, schlie?lich verwendeten die Unternehmen zum Trainieren ihrer KI-Systeme Bilder ihrer überwiegend wei?en, m?nnlichen Mitarbeiter aus dem technischen Bereich.

Und das führt zu geschlechtsspezifischen Vorurteilen. Im Jahr 2019 bemerkte Genevieve Smith dies, als sie und ihr Mann die gleiche Kreditkarte beantragten.

Obwohl sie eine etwas bessere Kreditwürdigkeit und dieselbe Einkommenslage, gleiche Ausgaben und Verschuldung wie ihr Mann hatte, setzte das Unternehmen ihren Kreditrahmen auf fast die H?lfte des Betrags ihres Mannes fest. Das ist ebenfalls keine überraschung. Die generativen KI-Systeme wurden mit historischen Daten trainiert, und in der Vergangenheit hatten Frauen niedrigere Kreditlimits als M?nner.

Zu den weiteren wichtigen Arten der Voreingenommenheit von Maschinen geh?ren:

  • Altersbezogene Vorurteile – werden z. B. im Gesundheitswesen voreingenommene Algorithmen verwendet, kann dies zu falschen Diagnosen oder Behandlungen für ?ltere Menschen führen.
  • Sozio?konomische Vorurteile – werden bei der Kreditvergabe voreingenommene Algorithmen verwendet, kann dies einen ungleichen Zugang zu Krediten für einkommensschwache Personen zur Folge haben.
  • Geografische Vorurteile – werden voreingenommene Algorithmen bei der Katastrophenhilfe eingesetzt, kann dies in einer ungleichen Zuteilung von Ressourcen je nach geografischem Standort resultieren.
  • Vorurteile gegenüber Menschen mit Behinderungen – werden voreingenommene Algorithmen z. B. bei der Einstellung von Mitarbeitern verwendet, kann dies zur Diskriminierung von Menschen mit Behinderungen führen.
  • Politische Vorurteile – werden voreingenommene Algorithmen z. B. für Nachrichtenempfehlungen verwendet, kann dies eine ungleiche Berücksichtigung verschiedener politischer Perspektiven bedeuten.

Wie entsteht durch Konzeptabweichung ein Vorurteil?

Ein Konzeptdrift tritt auf, wenn sich die Verteilung der für Prognosen verwendeten Daten im Laufe der Zeit so stark verschiebt, dass sich die Beziehungen zwischen In- und Outputs ver?ndern.

Um die Auswirkungen der Konzeptabweichung auf die KI-Ergebnisse abzuschw?chen, ist es für MLOPs-Teams wichtig, die Leistung ihrer KI-Modelle regelm??ig zu überwachen und sie mit neuen Daten zu aktualisieren. So wird sichergestellt, dass ihre Vorhersagen genau und fair bleiben. Darüber hinaus k?nnen Techniken wie das Transfer-Lernen eingesetzt werden, um KI-Modelle kontinuierlich an sich ?ndernde Datenverteilungen anzupassen.

Welche Rolle spielen Vorurteile beim selbstüberwachten Lernen?

Um relevant zu bleiben, muss KI überwacht werden. Zwar kann das Konzept des ?Human in the Loop“ (HITM) genutzt werden, um bei der Optimierung eines Modells eine gr??ere Vielfalt an Datenpunkten zu erreichen, doch darf nicht vergessen werden, dass Verzerrungen auch beim selbstüberwachten Lernen auftreten. Dies ist ein Szenario, bei dem das Modell ohne vom Menschen bereitgestellte Informationen trainiert wird.

Bei dieser Art des unüberwachten Lernens wird das jeweilige System mit einer gro?en Menge unstrukturierter oder nicht beschrifteter Daten trainiert und lernt, seine eigenen Bewertungen auf der Grundlage der Struktur der Daten zu generieren.

Um die Folgen von Bias beim selbstüberwachten Lernen zu mildern, sollten Datenwissenschaftler und Ingenieure ihre Trainingsdaten sorgf?ltig ausw?hlen. Darüber hinaus k?nnen sie Techniken wie Fairness-Einschr?nkung und Algorithmen zur Korrektur von Verzerrungen einsetzen.

Fazit: überwindung von Vorurteilen bei KI

Leider werden Menschen immer Vorurteile haben. Deshalb bedarf die KI einer sorgf?ltigen Kontrolle. Auch nur ein kleiner Hinweis auf geschlechtsbezogene, sozio?konomische, altersbedingte oder politische Voreingenommenheit in den Trainingsdaten eines Systems k?nnte zu voreingenommenen Ergebnissen führen und die Technologie des Anbieters zum Scheitern verurteilen.

Doch zum Glück k?nnen MLOps- und AIOps-Ingenieure die Unvermeidbarkeit von Vorurteilen minimieren, indem sie ihre Trainingsdaten sorgsam pflegen und ihre Modelle kontinuierlich überwachen und aktualisieren. So kann sichergestellt werden, dass ihre Ergebnisse genau und fair sind. Darüber hinaus werden st?ndig neue Ans?tze und Techniken zur Bek?mpfung von KI-Verzerrungen entwickelt, wie z. B. kontrafaktische Fairness.

Verwandte Begriffe

In Verbindung stehende Artikel

Devin Partida
Chefredakteurin von ReHack.com
Devin Partida
Chefredakteurin von ReHack.com

Devin Partida ist die Chefredakteurin von ReHack.com. Ihre freiberuflichen Arbeiten wurden bereits im offiziellen CES-Magazin sowie in verschiedenen anderen technischen Publikationen ver?ffentlicht. Wenn sie nicht gerade über die neuesten technischen Entwicklungen, Gadgets oder Cybersicherheitstrends schreibt, f?hrt sie mit dem Fahrrad über die Golden Gate Bridge. Um Devins komplettes professionelles Portfolio zu sehen, besuchen Sie bitte diese Seite. (LINK: https://rehack.com/professional-portfolio-of-devin-partida/)

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/