© Pexels / Antonio Batinic

Artificiële intelligentie (AI) is de toekomst: niet voor niets noemen velen het de ‘vierde Industriële Revolutie’. Hoewel AI veel kansen biedt, brengt het ook risico’s met zich mee: het is veel minder neutraal dan oorspronkelijk gedacht. Verschillende onderzoeken uit de Verenigde Staten wijzen uit dat een algoritmische vooringenomenheid ervoor zorgt dat de technologie actief discrimineert tegen mensen van kleur.

Wat is Artificiële intelligentie nu ook alweer?

Artificiële intelligentie (AI) is een wetenschappelijke discipline die gebaseerd is op het bouwen van systemen die menselijke hersenen nabootst. Het werkt door grote hoeveelheden gegevens te combineren met een repetitieve verwerking en intelligente algoritmes. Dat zorgt ervoor dat software automatisch kan leren van patronen in de gegevens. Al sinds de jaren vijftig zijn wetenschappers bezig met de ontwikkeling ervan, en vandaag is het aanwezig in tal van domeinen, zoals automatische gezichtsherkenning, online games, en de recent gelanceerde en massaal gebruikte ChatGPT.

Omdat AI beslissingen neemt op basis van algoritmes en gegevens lijkt het neutraal en objectief. In werkelijkheid is AI maar zo objectief als de gegevens waarop het zich baseert. Onderzoek toont aan dat er een algoritmische vooringenomenheid is: systematische vooroordelen in de beslissingen die worden genomen door AI-systemen. Dit zorgt voor de in- of exclusie van bepaalde groepen mensen bij het ontwerpen van algoritmes. Als gevolg van deze (onbewuste) vooringenomenheid, wordt AI een technologie die geoptimaliseerd is voor een klein deel van de wereld, en zorgt het voor ongelijke kansen voor mensen uit bepaalde raciale groepen.

Actieve discriminatie van mensen van kleur

Op de arbeidsmarkt beslissen AI-systemen in de Verenigde Staten (VS) wie een melding krijgt van een vacature: witte mannen krijgen aanzienlijk meer goedbetaalde vacatures te zien dan zwarte vrouwen. Mensen van kleur krijgen door AI-systemen lagere ‘scores’, ongeacht hun opleiding, waardoor ze niet voldoen aan de selectiecriteria voor goedbetaalde jobs.

Dat blijkt uit onderzoek dat computerwetenschapper David Jacobus Dalenberg al in 2018 deed. Als AI-systemen namen analyseren, krijgen Europees klinkende namen meer positieve associaties in de VS dan typisch Afro-Amerikaanse namen. Daarom krijgen deze laatste minder kans op een sollicitatiegesprek wanneer de voorronde gebeurde op basis van AI.

Ook in de gezondheidszorg wordt artificiële intelligentie steeds vaker gebruikt om diagnoses en behandelingen te bepalen. Maar de datasets die hiervoor worden gebruikt zijn onevenredig wit. Volgens een onderzoek van gezondheidszorg beleidswetenschappers Ravi B. Parikh en Amol Navathe en biostatistica Stephanie Teeple is 40 procent van de bevolking in de VS van kleur, maar 80 à 90 procent van de datasets is wit.

Volgens onderzoek is 40 procent van de bevolking in de VS van kleur, maar 80 à 90 procent van de datasets is wit

Dat kan gevolgen hebben voor ziekten die een grotere impact hebben op minderheidsgemeenschappen, zoals diabetes of hart- en longaandoeningen. Ook donorlijsten op basis van AI geven voorrang aan witte, gezondere mensen boven mensen van kleur die meer behoefte hebben aan een transplantatie.

Gezichtsherkenning met AI, gebruikt door onder andere Microsoft en Amazon, heeft een foutenpercentage van 0,7 procent voor witte mensen en 12 procent voor mensen van kleur. Zwarte vrouwen hebben zelfs een foutenpercentage van 35 procent. Concreet betekent dat dat 35 op 100 zwarte vrouwelijke gezichten niet worden herkend als een gezicht door AI. De Ghanese-Amerikaanse-Canadese computerwetenschapper Joy Buolamwini die hiernaar onderzoek deed, moest letterlijk een wit masker opzetten om haar gezicht gedetecteerd te krijgen tijdens haar onderzoek naar software voor gezichtsanalyse.

Bovendien heeft AI op een nog schadelijkere manier een discriminerend effect op het leven van mensen. In de Verenigde Staten staat één op twee volwassenen zijn gezicht in gezichtsherkenningssystemen opgeslagen, en deze systemen worden vaak gebruikt om een verdachte voor een misdrijf te vinden. Onderzoek van Buolamwini wijst aan dat dat niet op dezelfde manier werkt voor mensen van kleur als voor witte mensen, waardoor mensen van kleur vaker foutief worden geïdentificeerd als een verdachte.

De AI-risicoanalyses schatten de kans dat zwarte mensen in de toekomst een misdaad plegen 77 procent hoger dan de realiteit aanwijst

Risicobeoordelingen in rechtbanken, die gebruikt worden om te oordelen over wie vrijgelaten kan worden, worden ook steeds vaker uitgevoerd door artificiële intelligentie. De AI-risicoanalyses schatten de kans dat zwarte mensen in de toekomst een misdaad plegen 77 procent hoger dan de realiteit aanwijst.

Oorzaken van raciale discriminatie

Deze raciale vooringenomenheid van AI wordt veroorzaakt door twee zaken: de ondervertegenwoordiging van mensen van kleur in de technologiesector, en in de datasets die de AI vormgeven. AI is voornamelijk ontwikkeld door witte mannen: minder dan 5 procent van de mensen die werken bij de grote Amerikaanse techbedrijven bestaat uit mensen van kleur.

In 2019 was minder dan 2 procent van de werknemers bij Facebook en Google zwart. De afwezigheid van mensen van kleur versterkt (onbewust) discriminerende waarden in de wetenschap. Dit structureel racisme vertaalt zich in wat men een ‘epistemologie van blindheid’ noemt: westerse, witte kennis wordt gepresenteerd als universeel en alomtegenwoordig, waardoor het andere opvattingen van niet-blanken uitwist. Na de input van mensen kan AI zelf kennis produceren, waardoor de onderrepresentatie van mensen van kleur betekent dat er een nieuw, artificieel kennissysteem ontstaat dat, ondanks de ‘neutrale’ status van AI, hen uitsluit.

Minder dan 5 procent van de mensen die werken bij de grote Amerikaanse techbedrijven bestaat uit mensen van kleur

De tweede oorzaak van raciale vooringenomenheid in AI is de data die wordt gebruikt om artificiële intelligentie te trainen. Neem het voorbeeld van gezichtsherkenning met AI. Computers krijgen een trainingsset met voorbeelden van duizenden gezichten. Na verloop van tijd kan je computers leren om andere gezichten te herkennen. Maar onderzoek toont aan dat 75 procent van de sets mannen zijn, en 80 procent wit. Omdat de trainingssets zo weinig divers zijn, wordt ieder gezicht dat afwijkt van de witte, mannelijke norm moeilijker te detecteren.

Wetenschappers zoals filosofe Helen Ngo noemen dit de banaliteit van witheid: het valt niet op en wordt als normaal beschouwd. Databanken voor kunstmatige intelligentie bestaan voornamelijk uit witte mannen omdat men niets bijzonders ziet, men 'denkt' er niet over na: men ziet een banale, neutrale of witte databank.

Deze voorbeelden tonen aan dat artificiële intelligentie een actieve rol speelt in het bevoordelen van een witte huid. Artificiële intelligentie neemt dan wel alleen wiskundige beslissingen, maar je kan het sociale niet scheiden van het technische.

Vandaag versterkt AI een banaliteit van witheid en een kennissysteem van blindheid. Daardoor creëren sommige resultaten van kunstmatige intelligentie een situatie waarin het niet-wit zijn je in de problemen kan brengen. Als mensen van kleur letterlijk niet (h)erkend worden door sommige AI-systemen, is artificiële intelligentie een nieuwe vorm van structureel racisme dat, ongeacht zijn neutraal imago, toch bijdraagt aan de ongelijke positie van mensen van kleur in de maatschappij.

Kijktip: de documentaire Codes Bias op Netflix, met computerwetenschapper Joy Buolamwini


Dit artikel werd gepubliceerd door De Wereld Morgen op 04/10/2023.

vorige volgende