Schokkend: zo zien tech-giganten jou

tech-ai-imagenet-roulette
Test het zelf: zien zij jou als sportief of potentiƫle verkrachter?

Wanneer techbedrijven gebruik maken van kunstmatige intelligentie om aan de hand van jouw foto in te schatten wat voor vlees ze in de kuip hebben gebruiken ze daarvoor vaak software van een bedrijf genaamd Imagenet. Aan de hand van, naar eigen zeggen, 500 referentiefoto’s per classificatie maken ze een inschatting van de classificaties die van toepassing zijn van een foto van een persoon.

Dit heeft een ander bedrijf op het idee gebracht om een website te lanceren, Imagenet roulette. Hiermee kan je een foto van jezelf of een ander uploaden en vervolgens analyseert de website met de data van Imagenet welke kwalificaties op de foto van toepassing zijn. Dit is dus ook de wijze waarop grote technologiebedrijven jou classificeren als jij foto’s met hen deelt (bijvoorbeeld via social media of voor een sollicitatie) en zij deze laten analyseren.

Waar men dacht een leuke en soms nuttige tool te hebben ontwikkeld gebeurde er iets schokkends. Het bleek dat de software van Imagenet er niet voor terug deinst om de meest afschuwelijke kwalificaties aan mensen toe te dichten.

Diverse Twitteraars, waaronder techjournalisten delen de bizarre uitkomsten.

Zo werd deze techjournalist gekwalificeerd als ‘gescheiden’ en ‘eeuwige vrijgezel (letterlijk onbestorven weduwnaar)’

Nu zou je dit nog als grappig af kunnen doen, maar het werd erger.

Deze dame, die een bril draagt, probeerde de dienst met en zonder bril. Met bril viel de kwalificatie mee, maar zonder bril werd ze verdachte van een verkrachting?!?

Ook de uitkomsten van de analyse van de foto van deze mevrouw waren niet humoristisch, zij kreeg een discriminerende verwijzing naar een Aziatische afkomst als tag.

De resultaten van de roulette van de foto van deze technisch onderzoeker zorgden, logischerwijze voor nogal wat verwarring.

Met deze technologie wordt ‘deepfake‘ spontaan een kinderklasje. Het zal maar gebeuren dat iemand een foto van je upload en hem terug krijgt met de kwalificatie ‘verdacht van verkrachting’ naast jouw zondagse gezicht getagd waarna hij hem op social media post. Hoe erg ook, bij deze variant weet je tenminste wat er over je gezegd wordt. Veel techbedrijven zullen deze informatie nooit delen, maar jouw foto wel met deze kwalificaties verder behandelen. Hoe dit mis kan gaan ondervond deze student toen er bij Apple met gezichtsherkenningssoftware iets mis ging.

Het is niet verwonderlijk dat de site van Image-net melding maakt van een update. Daarnaast kan je zelf testen hoe de software jouw foto interpreteert.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *