Kan AI vooroordelen hebben?

Betrouwbaarheid
IN HET KORT

Kunstmatige intelligentie kan alles - zeer complex denken en rekenen, creatief schrijven, moeilijke vragen beantwoorden enzovoort. Maar hoe zit het met vooroordelen? Lopen AI-modellen zoals ChatGPT het risico vooroordelen over te nemen?

Of ze nu praten over een nieuw regeringsbeleid of over ananas op pizza, mensen zijn bevooroordeeld over elk onderwerp in de wereld.

Het probleem is dit: Deze oordelen worden doorgegeven aan machine learning modellen in gegevens die worden gebruikt om ze te trainen en de algoritmen die worden gebruikt om ze te cre?ren.

Wat betekent dit voor een wereldwijde samenleving die steeds meer vertrouwt op robotassistenten? Het betekent dat er toezicht nodig is om ervoor te zorgen dat de resultaten van een AI-systeem eerlijk en onbevooroordeeld zijn. Immers, AI zomaar menselijke banen laten vervangen levert in voorkomende gevallen problemen op.

Wat zijn de biases in AI?

In de literatuur wordt vaak onderscheid gemaakt tussen datagerelateerde, algoritmische, sociale en maatschappelijke biases bij AI. Gegevens- en algoritmische vertekeningen kunnen het gevolg zijn van een vertekende selectie of verwerking van gegevens. Sociale en maatschappelijke vooroordelen kunnen echter het gevolg zijn van een lagere vertegenwoordiging van een minderheidsgroep in IT-teams.

Bij machinaal leren is de bias van gegevens en algoritmen het resultaat van een systematische fout of afwijking in de voorspellingen van een model. Als onbewuste en bewuste vooroordelen hun weg vinden in de datasets die worden gebruikt om het model te trainen, zullen ze ook in de AI-resultaten sluipen.

Men besloot te onderzoeken hoe AI van leveranciers als Amazon, Google, Microsoft en IBM omgingen met verschillende huidtypes en geslachten, en ontdekte dat de systemen aanzienlijk beter presteerden op gezichten met een lichte huid (zowel mannen als vrouwen) en de meeste fouten maakten bij vrouwen met een donkere huid. Het probleem? De training data was niet divers genoeg. Geen wonder, want de bedrijven gebruikten beelden van hun overwegend blanke mannelijke techneuten om hun AI-systemen te trainen.

En dat brengt ons bij gender bias. Genevieve Smith kwam daar in 2019 achter toen zij en haar man dezelfde creditcard aanvroegen. Ook al had ze een betere kredietscore en hetzelfde inkomen, uitgaven en schuldenlast als haar man, de creditcardmaatschappij stelde haar kredietlimiet op bijna de helft van het bedrag. Ook dit is geen verrassing – de generatieve AI-systemen werden getraind met historische gegevens, en in het verleden hadden vrouwen lagere kredietlimieten dan mannen.

Andere belangrijke vormen van machinevooroordelen zijn:

  • Leeftijdsgebonden – wanneer bevooroordeelde algoritmen worden gebruikt in de gezondheidszorg, kan dit bijvoorbeeld leiden tot onjuiste diagnoses of behandelingen voor ouderen.
  • Sociaal-economisch – wanneer bevooroordeelde algoritmen worden gebruikt in de kredietverlening, kan dit bijvoorbeeld leiden tot ongelijke toegang tot krediet voor mensen met een laag inkomen.
  • Geografisch – als bevooroordeelde algoritmen worden gebruikt, bijvoorbeeld bij rampenbestrijding, kan dit leiden tot ongelijke toewijzing van middelen op basis van geografische locatie.
  • Mensen met een handicap – als bevooroordeelde algoritmen worden gebruikt, bijvoorbeeld bij aanwerving, kan dit leiden tot discriminatie van mensen met een handicap.
  • Politiek – als bevooroordeelde algoritmen worden gebruikt, bijvoorbeeld bij nieuwsaanbevelingen, kan dit leiden tot ongelijke behandeling van verschillende politieke standpunten.

Hoe leidt Intelligent Deviation tot vertekening?

Intelligent Deviation treedt op wanneer de verdeling van gegevens die worden gebruikt om voorspellingen te doen, in de loop van de tijd zo sterk verschuift dat de relaties tussen inputs en outputs veranderen.

Om het effect van Intelligent Deviation op AI-resultaten te beperken, controleren MLOP-teams regelmatig de prestaties van hun AI-modellen om deze bij te werken met nieuwe gegevens, zodat hun voorspellingen accuraat en eerlijk blijven. Daarnaast kunnen technieken als transfer learning worden gebruikt om AI-modellen voortdurend aan te passen aan veranderende gegevensdistributies.

Welke rol spelen biases bij self-supervised learning?

Om relevant te blijven, moet AI onder toezicht staan. Hoewel menselijke interventie in de lus kan worden gebruikt om een grotere verscheidenheid aan gegevenspunten te markeren bij de afstemming van een model, mag niet worden vergeten dat biases ook een rol spelen bij het leren. Dit is een scenario waarin het model wordt getraind zonder door mensen verstrekte labels.

Bij dit type van leren zonder toezicht wordt het model getraind op een grote hoeveelheid ongestructureerde of ongelabelde gegevens en leert het zijn eigen labels te genereren op basis van de gegevensstructuur.

Om de effecten van bias bij self-supervised learning te beperken, moeten data scientists en machine learning engineers hun trainingsgegevens zorgvuldig kiezen. Ze kunnen ook technieken gebruiken zoals eerlijkheidsbeperkingen en algoritmen voor biascorrectie om bias te verminderen.

Conclusie: vooroordelen in AI overwinnen.

Helaas zullen mensen altijd vooroordelen hebben, en AI moet zorgvuldig worden gecultiveerd. Als er in de trainingsgegevens van een populair model maar een vleugje gender, sociaaleconomische, leeftijds- of politieke vooringenomenheid doorklinkt en dat leidt tot machinaal bevooroordeelde resultaten, kan de aanbieder te maken krijgen met een opstand tegen de technologie.

Gelukkig kunnen MLOps- en AIOps-technici de onvermijdelijke vooringenomenheid minimaliseren door hun trainingsgegevens zorgvuldig te cureren en hun modellen voortdurend te controleren en bij te werken om ervoor te zorgen dat hun resultaten nauwkeurig en eerlijk zijn. Bovendien worden voortdurend nieuwe benaderingen en technieken ontwikkeld om AI-bias te bestrijden, zoals counterfactual fairness.

Gerelateerde begrippen

Gerelateerde artikelen

Devin Partida
Editor-in-Chief for ReHack.com
Devin Partida
Editor-in-Chief for ReHack.com

Devin Partida is de Editor-in-Chief voor ReHack.com, en haar freelance werk is verschenen in het offici?le CES magazine en diverse andere tech publicaties. Als ze niet schrijft over de nieuwste tech, gadgets of cybersecurity-trends, kunt u haar vinden op de fiets rond de Golden Gate Bridge.

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/