Test het zelf: zien zij jou als sportief of potentiƫle verkrachter?
Wanneer techbedrijven gebruik maken van kunstmatige intelligentie om aan de hand van jouw foto in te schatten wat voor vlees ze in de kuip hebben gebruiken ze daarvoor vaak software van een bedrijf genaamd Imagenet. Aan de hand van, naar eigen zeggen, 500 referentiefoto’s per classificatie maken ze een inschatting van de classificaties die van toepassing zijn van een foto van een persoon.
Dit heeft een ander bedrijf op het idee gebracht om een website te lanceren, Imagenet roulette. Hiermee kan je een foto van jezelf of een ander uploaden en vervolgens analyseert de website met de data van Imagenet welke kwalificaties op de foto van toepassing zijn. Dit is dus ook de wijze waarop grote technologiebedrijven jou classificeren als jij foto’s met hen deelt (bijvoorbeeld via social media of voor een sollicitatie) en zij deze laten analyseren.
Waar men dacht een leuke en soms nuttige tool te hebben ontwikkeld gebeurde er iets schokkends. Het bleek dat de software van Imagenet er niet voor terug deinst om de meest afschuwelijke kwalificaties aan mensen toe te dichten.
Diverse Twitteraars, waaronder techjournalisten delen de bizarre uitkomsten.
Zo werd deze techjournalist gekwalificeerd als ‘gescheiden’ en ‘eeuwige vrijgezel (letterlijk onbestorven weduwnaar)’
Tried out the ImageNet prediction on myself and, great job, it figured out I was wearing glasses. So I tried it again with another picture where I wasn't wearing glasses and…….. pic.twitter.com/gPywEApY2q
— Saloni (@salonium) September 16, 2019
Nu zou je dit nog als grappig af kunnen doen, maar het werd erger.
Deze dame, die een bril draagt, probeerde de dienst met en zonder bril. Met bril viel de kwalificatie mee, maar zonder bril werd ze verdachte van een verkrachting?!?
Tried out the ImageNet prediction on myself and, great job, it figured out I was wearing glasses. So I tried it again with another picture where I wasn't wearing glasses and…….. pic.twitter.com/gPywEApY2q
— Saloni (@salonium) September 16, 2019
Ook de uitkomsten van de analyse van de foto van deze mevrouw waren niet humoristisch, zij kreeg een discriminerende verwijzing naar een Aziatische afkomst als tag.
tfw when you get a press release about an AI photo thing that you've seen lots of other tech reporters having fun with but then it's actually not that fun pic.twitter.com/NMZNxlGNZW
— Julia Carrie Wong (@juliacarriew) September 17, 2019
De resultaten van de roulette van de foto van deze technisch onderzoeker zorgden, logischerwijze voor nogal wat verwarring.
well at first I was troubled (though unsurprised) by @jd_schnepf's point about human classification robots (https://t.co/wL6w1j5z19)
now I'm confused AND troubled š¤š§ https://t.co/jsk5VPaanS
— bri watson š (@brimwats) September 16, 2019
Met deze technologie wordt ‘deepfake‘ spontaan een kinderklasje. Het zal maar gebeuren dat iemand een foto van je upload en hem terug krijgt met de kwalificatie ‘verdacht van verkrachting’ naast jouw zondagse gezicht getagd waarna hij hem op social media post. Hoe erg ook, bij deze variant weet je tenminste wat er over je gezegd wordt. Veel techbedrijven zullen deze informatie nooit delen, maar jouw foto wel met deze kwalificaties verder behandelen. Hoe dit mis kan gaan ondervond deze student toen er bij Apple met gezichtsherkenningssoftware iets mis ging.
Het is niet verwonderlijk dat de site van Image-net melding maakt van een update. Daarnaast kan je zelf testen hoe de software jouw foto interpreteert.