Wanneer AI gezichtsherkenning je identificeert voor een misdaad die je niet hebt begaan

Betrouwbaarheid
IN HET KORT

Het aantal onschuldige mensen dat wordt gearresteerd nadat ze verkeerd zijn ge?dentificeerd door AI gezichtsherkenningstechnologie (FRT) blijft maar toenemen. Hoe ethisch is het om deze technologie in haar huidige vorm te blijven gebruiken?

In de Verenigde Staten blijven rechtszaken opduiken tegen politie die gezichtsherkenning gebruiken om mensen te arresteren. De meest recente zaak, die in augustus 2023 werd ingediend in Detroit, is de zesde zaak in de afgelopen drie jaar.

Het is niet nodig te om te benadrukken dat de vernedering van onterecht gearresteerd worden door fouten van kunstmatige intelligentie (AI), een angstaanjagende gebeurtenis is die verwoestende gevolgen kan hebben voor iemand.

Dat is zeker het geval als de onterechte aanklacht niet op tijd wordt ontdekt en het slachtoffer een gevangenisstraf boven het hoofd hangt.

Aan de andere kant beweren voorstanders van deze technologie dat het de wetshandhaving veel effici?nter heeft gemaakt.

Deze fouten kunnen worden opgelost door een aantal intrinsieke softwarefouten te verhelpen of door ervoor te zorgen dat er regelmatiger beelden van hoge resolutie worden gebruikt.

Maar hoe ethisch is het om AI-gezichtsherkenningstechnologie, ook wel bekend als FRT (facial recognition system), te blijven “testen” om mensen te arresteren die ondertussen zomaar onschuldig zouden kunnen zijn?

Hoe ethisch is het om AI gezichtsherkenning te gebruiken in het algemeen, wetend hoezeer het een voortdurende schending van onze privacy kan betekenen – altijd in staat om individuen te identificeren zonder toestemming?

Laten we eerst eens kijken naar de schade die het tot nu toe heeft aangericht.

Een geschiedenis van fouten bij gezichtsherkenning

Zwangere vrouw slachtoffer van FRT-fout, 2023

Het laatste geval waarbij FRT een persoon verkeerd identificeerde, vond eerder dit jaar plaats in Detroit. Het slachtoffer, Porsha Woodruff, 32, was op dat moment acht maanden zwanger.

Woodruff werd gearresteerd voor de ogen van haar twee dochters van 6 en 12 jaar oud en moest een dag doorbrengen op het politiebureau. In de nasleep voelde ze zich gestrest en onwel en bezocht ze een medisch centrum waar ze vroege wee?n kreeg.

De artsen stelden vast dat ze uitgedroogd was en dat ze een lage hartslag had. Niet de beste manier om de meest delicate dagen van je zwangerschap door te brengen.

Woodruff was niet het enige slachtoffer van FRT-fouten.

Valse beschuldiging op basis van korrelige bewakingsbeelden, 2020

In januari 2020 werd Robert Williams beschuldigd van winkeldiefstal van vijf horloges ter waarde van $3.800.

Enkele korrelige bewakingsbeelden waren alles wat de politie van Detroit nodig had om de man te arresteren, die in de boeien werd geslagen op zijn eigen gazon in het zicht van al zijn buren, terwijl zijn vrouw en twee jonge dochters niets anders konden doen dan verontrust toekijken.

In theorie moest gezichtsherkenning alleen gebruikt worden als een aanknopingspunt voor onderzoek, niet als het enige bewijs dat nodig was om Williams van een misdaad te beschuldigen.

Het was echter genoeg voor de politie, die hem arresteerde zonder ondersteunend bewijs – zelfs toen uiteindelijk bleek dat Williams van zijn werk naar huis reed op het moment van de overval.

Wanneer we verder graven, zullen we ontdekken dat dit geen ge?soleerde fouten zijn – er is een spoor van soortgelijke problemen dat zich over jaren uitstrekt.

Hoe een vals identiteitsbewijs leidde tot een onterechte arrestatie, 2019

In 2019 liet een winkeldief een vals rijbewijs uit Tennessee achter op de plaats delict in Woodbridge, New Jersey, nadat hij snoep had gestolen. Toen de valse ID werd gescand door gezichtsherkenningstechnologie, werd Nijeer Parks ge?dentificeerd als een “high-profile” match.

Hij werd gearresteerd en omdat hij eerder was veroordeeld voor drugsgerelateerde aanklachten en een dubbele straf riskeerde, begon hij te overwegen of een pleidooi een betere oplossing zou zijn.

Gelukkig voor hem kon hij uiteindelijk zijn onschuld bewijzen toen hij een ontvangstbewijs vond voor een Western Union overboeking die plaatsvond op hetzelfde tijdstip als de winkeldiefstal – op een plek die 30 mijl verwijderd was van de winkel.

Volgens advocaten is het niet ongebruikelijk dat mensen die ten onrechte beschuldigd worden door gezichtsherkenning akkoord gaan met een pleidooi, zelfs als ze onschuldig zijn.

De NY sokken zaak: zes maanden gevangenisstraf voor een mogelijke match

In 2018 werd er bijvoorbeeld een man beschuldigd van het stelen van een paar sokken uit een T.J. Maxx winkel in New York City. De hele zaak berustte op een enkele korrelige beveiligingsopname die maanden na de gebeurtenis een “mogelijke overeenkomst” opleverde.

Toen een getuige bevestigde dat “hij de dader was”, bracht de verdachte zes maanden door in de gevangenis voordat hij schuldig werd bevonden – hoewel hij nog steeds volhoudt onschuldig te zijn.

Het argument van de verdediging? De man was op het moment van het misdrijf in het ziekenhuis voor de geboorte van zijn kind.

In sommige van de bovenstaande zaken heeft een tegenbewijs aangetoond – met succes in twee zaken, zonder succes in een andere – dat de verdachte ver weg was van de plaats delict. Niet iedereen zal echter zoveel geluk hebben.

Met andere woorden, de gevallen die we kennen zijn misschien maar een klein deel van het aantal onschuldige mensen dat momenteel in de gevangenis zit of een gevangenisstraf boven het hoofd hangt vanwege een verkeerde FRT-herkenning.

“Het zou gereguleerd moeten worden” vs. “Het zou verboden moeten worden”.

Zoals veel dingen in het leven, benadrukken de bovenstaande voorbeelden meer hoe mensen hulpmiddelen gebruiken dan de hulpmiddelen zelf.

In veel gevallen gebruiken wetshandhavingsinstanties FRT als het enige bewijs dat nodig is om mensen in de gevangenis te stoppen, in plaats van potenti?le herkenning te gebruiken als een eenvoudige aanwijzing in een breder onderzoeksproces.

Sherlock Holmes zou de technologie hebben verwelkomd, maar hij zou zijn tijd hebben besteed aan het bekritiseren van het bewijs in plaats van het te behandelen als een feit.

Er is een veel ernstiger onderliggend probleem dat deze technologie zeer bevooroordeeld maakt en het gebruik ervan op zijn best controversieel.

In 2019 vond onderzoek van het National Institute of Standards and Technology (NIST) een groeiende hoeveelheid bewijs dat erop wijst dat FRT wordt ontsierd door aanzienlijke racistische vooroordelen.

AI identificeert vaak, zo niet regelmatig, mensen met een donkere huidskleur, jongere mensen en vrouwen op een verkeerde manier. Het risico op verkeerde identificatie is 100 keer hoger bij Aziatische en Afrikaanse Amerikanen en zelfs nog groter bij inheemse Amerikanen.

Demografische verschillen zoals leeftijd en geslacht dragen ook bij, en deze disproportie kan prominenter worden met sommige minder nauwkeurige systemen.

Naast massale bezorgdheid over het feit dat FRT onproportioneel gericht is op mensen van bepaalde specifieke etniciteiten, kan alleen al het gebruik van deze technologie de privacy en burgerlijke vrijheden schenden.

Real-time publiek toezicht identificeert individuen zonder dat ze hiervoor toestemming hebben gegeven, en samengevoegde databases worden vaak opgebouwd zonder enige regelgeving om de rechtmatigheid ervan te bepalen.

Biometrische gegevens kunnen veel te gemakkelijk en in het geheim worden vastgelegd en voor allerlei doeleinden worden gebruikt, waaronder een overkoepelende controle van ons privéleven die velen van ons waarschijnlijk onaanvaardbaar vinden.

Door technische kwetsbaarheden kunnen vastgelegde beelden worden gebruikt voor allerlei kwaadaardige activiteiten, vari?rend van identiteitsdiefstal, deepfakes, fysieke of digitale spoofs en zelfs intimidatie.

Deze technische beperkingen kunnen over tijd heen worden overwonnen, maar hoewel er richtlijnen worden ontwikkeld die het gebruik van FRT beperken, worden er nog steeds onschuldige mensen vervolgd. Sommige steden, zoals San Francisco, hebben de politie en andere overheidsinstanties verboden om gezichtsherkenning te gebruiken, en velen beweren dat dit de enige oplossing voor dit probleem zou kunnen zijn.

De kern van de zaak

Het gebruik van FRT voor wetshandhaving is een zeer controversieel onderwerp. Het is ongetwijfeld een geweldig hulpmiddel om bedreigingen snel te identificeren als de reactiesnelheid kritiek is, bijvoorbeeld om terroristen tegen te houden of de veiligheid op luchthavens te garanderen.

Velen beweren echter dat deze technologie een onaanvaardbare inbreuk is op het privéleven en dat het voortdurend in de gaten houden van de nieuwsgierige ogen van een overheid een dystopisch gedrocht is.

Eén ding is zeker: in de huidige staat is deze technologie nog niet klaar voor gebruik – tenminste niet zonder het risico op ernstige gevolgen.

Het feit dat we niet zijn voorbereid komt echter niet alleen door de technische beperkingen van FRT, maar ook door de onjuiste manier waarop mensen er gebruik van maken.

Met andere woorden, als FRT gerechtigheid wilt dienen, hebben we solide set wetten en regels nodig om het te reguleren. Wie bewaakt de bewakers?

Gerelateerde begrippen

Gerelateerde artikelen

Claudio Buttice
Data Analist
Claudio Buttice
Data Analist

Dr. Claudio Butticè is een voormalig apotheekdirecteur die voor verschillende grote openbare ziekenhuizen in Zuid-Itali? heeft gewerkt, evenals voor de humanitaire NGO Emergency. Hij is nu een ervaren auteur van boeken die heeft geschreven over onderwerpen als geneeskunde, technologie, armoede in de wereld, mensenrechten en wetenschap voor uitgevers als SAGE Publishing, Bloomsbury Publishing en Mission Bell Media. Zijn meest recente boeken zijn "Universal Health Care" (2019) en "What You Need to Know about Headaches" (2022). Als data-analist en freelance journalist zijn veel van zijn artikelen gepubliceerd in tijdschriften zoals Cracked, The Elephant, Digital Journal, The Ring of Fire en Business…

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/