Nieuws

AI inzetten tegen racistische robots

4 min
17-01-2024
Tekst Lise Wouters

De kranten staan er de laatste maanden vol van, en met reden: Artificiële Intelligentie (AI) is op korte tijd enorm geëvolueerd en biedt oneindig veel mogelijkheden. Hoewel het ons leven op veel vlakken gemakkelijker maakt, kan het ook heel gevaarlijk zijn als discriminerende patronen verschijnen. Dat proberen onderzoekers van de onderzoeksgroep ACRAI (Antwerp Center on Responsible AI) tegen te gaan met Explainable AI.

 

Van Siri tot Tesla

 

Iedereen spreekt erover, maar hoe kunnen we AI eigenlijk definiëren? ‘Algemeen wordt artificiële intelligentie beschouwd als het vermogen van een computerprogramma of machine om te denken en te leren’, legt Toon Calders (Faculteit Wetenschappen) uit. ‘Op die manier is het de tegenhanger van natuurlijke intelligentie, in dieren en mensen.’

 

AI is ook een vakgebied dat probeert om computers zelflerend te maken, zodat ze kunnen functioneren zonder menselijk ingrijpen. Denk bijvoorbeeld aan de spraakassistent van je gsm of aan zelfrijdende auto’s.

 

Voorspellingsmodellen, een vorm van AI

 

Bij UAntwerpen focust ACRAI op het begrijpelijk en transparant maken van voorspellende modellen. Die modellen worden op basis van grote hoeveelheden data automatisch opgebouwd, en zijn dus een vorm van Artificiële Intelligentie. ‘Uiteindelijk kunnen ze gebruikt worden als vervanging van menselijke intelligentie’, legt Calders uit.

quote image

Het klinkt allemaal heel aanlokkelijk, maar voorspellingsmodellen kunnen onethisch en zelfs discriminerend zijn.

Daphne Lenders

Zo’n voorspellende modellen kunnen onder andere worden ingezet in de geneeskunde, om kankers sneller op te sporen, maar evengoed in de logistieke of financiële sector. Het leven van de bankier wordt een stuk gemakkelijker als AI gewoon kan voorspellen hoeveel iemand mag lenen, zonder dat die zelf alle berekeningen moet maken.

 

Hoe AI kan discrimineren

 

‘Het klinkt allemaal heel aanlokkelijk,’ vertelt Daphne Lenders (Faculteit Wetenschappen), ‘maar voorspellingsmodellen kunnen onethisch en zelfs discriminerend zijn. Niet omdat ze bewust zo gemaakt werden door hun ontwerpers, maar omdat die stereotypes en denkfouten al in de data zitten. Want data komt van mensen, en mensen discrimineren vaak zonder het zelf te beseffen.’

 

Zo was er enkele jaren geleden een relletje rond de Apple Card. Achter die kredietkaart zit een algoritme dat beslist hoeveel geld iemand mag uitgeven. Toen er echter meldingen kwamen dat het algoritme vrouwen minder krediet zou geven, kon Apple dat niet bevestigen of ontkennen. Het systeem was namelijk zelflerend, en Apple wist niet wàt hun algoritme precies geleerd had.

 

Een ander voorbeeld is het COMPAS-instrument: dat moest voorspellen hoe hoog de kans was op recidive bij mensen die veroordeeld waren. Het systeem gaf een hogere risicoscore aan zwarte mensen. Daardoor verkleinde de kans dat ze in afwachting van hun proces op borgtocht werden vrijgelaten.

quote image

Explainable AI kan meer transparantie bieden en zo ongewenste patronen – oftewel: discriminatie – opsporen en verwijderen. Het maakt AI beter en onze samenleving eerlijker.

David Martens

De oplossing: Explainable AI

 

Het is dus belangrijk om het beslissingsproces van AI te kennen: waarom en hoe wordt een beslissing gemaakt? ACRAI ontwikkelde daarom methodes om voorspellingsmodellen uit te leggen. Vaak kan je dat immers niet afleiden uit het model zelf, door de grote hoeveelheid aan data en de complexiteit van het model. Om de analyses correct te maken, gebruikt ACRAI dan ook… nog meer AI.

 

‘Explainable AI verklaart de patronen van complexe modellen’, legt David Martens (Faculteit Bedrijfswetenschappen en Economie) uit. ‘In het voorbeeld van Apple Card zou Explainable AI dus aantonen dat de voorspellende AI het gender van klanten mee in acht neemt… of net niet.’ Wanneer Explainable AI eventuele discriminatie aan het licht brengt, kunnen specialisten ingrijpen door de software te verbeteren of gewoon niet meer te gebruiken.

 

Gedaan met racistische robots

 

Eenzelfde valkuil vinden we bij gezichtsherkenningssoftware. Denk maar aan Facebook die automatisch gezichten herkent op foto’s en voorstelt om vrienden te taggen. De AI die de gezichtsherkenning doet, baseert zich op datasets die voorbeelden van gezichten bevatten. ‘Het probleem?’ vertelt Lenders. ‘Vaak bevatten zo’n datasets disproportioneel veel foto’s van witte mensen. Zo krijg je een model dat alleen rekening houdt met één bepaald deel van de samenleving.’

 

Als het een beetje langer duurt om iemand met een niet-witte huidskleur te taggen op Facebook, is dat misschien niet zo’n grote ramp. Maar wanneer de politie gebruik zou maken van discriminerende gezichtsherkenningssoftware, is dat een heel ander verhaal. ‘Explainable AI kan meer transparantie bieden en zo ongewenste patronen – oftewel: discriminatie – opsporen en verwijderen,’ besluit Martens. ‘Het maakt AI beter en onze samenleving eerlijker.’

quote image

Hoe groter de databank, hoe efficiënter AI-systemen beslissingen kunnen nemen en hoe kleiner de kans dat minderheden onzichtbaar blijven. 

Toon Calders

Kan je een robot aanklagen?

 

Voor menselijke fouten kunnen mensen aansprakelijk gesteld worden. Maar wat met fouten die door robots gemaakt worden? ‘Robots hebben zelf geen rechtspersoonlijkheid en kunnen dus niet worden aangeklaagd mochten ze bijvoorbeeld discriminerend zijn,’ aldus Martens. ‘De eigenaar of gebruiker van een robot kan daarentegen wel aansprakelijk worden gesteld.’

 

En wat met het verzamelen en beheren van gegevens? ‘Daarvoor is altijd toestemming vereist’,  zegt Calders. ‘Maar hoe groter de databank, hoe efficiënter AI-systemen beslissingen kunnen nemen en hoe kleiner de kans dat minderheden onzichtbaar blijven. Zo vermindert de kans op discriminatie.’

 

Bekijk een korte video over deze studie of duik zelf in het academisch onderzoek.

Deel dit artikel