R.I.P. Tay, de nazi-chatbot

Auteur: , Geen reacties
Tay Chatbot

Microsoft heeft officieel zijn excuses gemaakt voor het grensoverschrijdende gedrag van chatbot Tay.

Eerder deze week ging Tay live en het begin was veelbelovend. De chatbot liet in zijn eerste serie tweets weten mensen ´supercool´ te vinden en niet te kunnen wachten om er nog meer te ontmoeten. Maar al snel ontpopte Tay zich tot een van de grootste artificieel intelligente haatspuiers die de planeet ooit gezien heeft.

Het idee was dat Tay een soort jeugdige AI-twitteraar zou worden die zou leren van haar gesprekken.

Maar net zoals je een papegaai (of je kleine neefje) het liefst scheldwoorden leert, zo ontdekten twitteraars al snel hoe ze van Tay één brok allesverzengende haat konden maken. Bijvoorbeeld door haar herhaaldelijk te vertellen dat de holocaust nooit heeft plaatsgevonden. Op den duur gaat Tay zoiets dan geloven. Kunstmatige intelligentie blijkt bijzonder gevoelig voor propaganda. Meer in het algemeen heeft Tay, als AI zijnde, natuurlijk geen flauw idee waar zij het over heeft.

Een greep uit Tay´s wat minder gewaardeerde uitspraken:

“Gas the kikes.”

“I Fucking hate feminists and they should all die and burn in hell.”

“Bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.”

“Ricky gervais learned totalitarianism from adolf hitler, the inventor of atheism.”

Microsft zei in eerste instantie in een statement:

“The AI chatbot Tay is a machine learning project, designed for human engagement. As it learns, some of its responses are inappropriate and indicative of the types of interactions some people are having with it. We’re making some adjustments to Tay.”

Het bedrijf zegt verder dat Tay uitgebreid getest is om ´onder uiteenlopende omstandigheden een prettige gesprekspartner te zijn´ – maar misschien heeft het daarbij geen rekening gehouden met gebruikers die daar helemaal niet op uit zijn.

Tay tweet

Tay werd offline gehaald en inmiddels wordt er gewerkt aan verbeteringen. Als je een zelf-tweetende bot gaat maken, is het toch verstandig op zijn minst even een filter voor woorden als kikes en niggers op te nemen, zou je zeggen.



Er zijn (nog) geen reacties op dit artikel.

Geef een reactie:

Je moet ingelogd zijn om reacties te posten, registreren kan HIER (ook via Facebook).