‘Zelfs A.I. heeft vooroordelen over ras en gender’

Kunstmatige intelligentie
A.I. is niet zo onafhankelijk en neutraal als we dachten.

Robots en A.I. zijn altijd neutraal en vrij van menselijke emotie, toch? Volgens een recentelijk onderzoek aan de University of Bath en Princeton University heeft kunstmatige intelligentie (A.I) vooroordelen net als mensen, zo meldt Sciencemag.

“Ik denk niet dat A.I. een soort fee is,” aldus Joanna Bryson. Ze deed onder meer onderzoek naar kunstmatige intelligentie en de ‘gevoelens’ die de robots hebben. “A.I. is gewoon een verlenging van onze bestaande cultuur.”

Met het onderzoek werd de gedachtegang van een robot gemeten door middel van de IAT-methode. Woorden flitsen snel op een scherm waarna het subject – de robot in dit geval – moet associëren. Wat blijkt? Een woord als ‘bibliothecaris’ wordt vaker met het woord ‘vrouw’ geassocieerd dan met het woord ‘man’. Het woord ‘dokter’ wordt vaker in verband gebracht met ‘man’ dan met ‘vrouw’.

Oplossing
Computers zijn dus lang niet zo onafhankelijk als de meesten waarschijnlijk dachten. Dit komt volgens de onderzoekers onder andere doordat verbanden tussen woorden niet in context worden ‘geleerd’ aan de A.I. Vooroordelen zitten gebakken in onze (menselijke) taal.

Uiteraard zijn dergelijke fenomenen een probleem. Maar in plaats van het verwijderen van veel bevooroordeelde informatie en associaties, zou men volgens de onderzoekers juist een extra laag moeten toevoegen. Een van de onderzoekers spreekt over een menselijke of rechtvaardige extra laag die moet bepalen of het terecht is om op specifieke vooroordelen te handelen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *