AI hallucinaties zullen nooit weg gaan, levensvatbaarheid van de technologie in het geding

De technologie die we doorgaans kunstmatige intelligentie noemen, of kortweg “AI”, draait ondertussen al even mee. Volgens de hype men uit Silicon Valley zou het ‘the next big thing’ zijn. Maar des te nauwkeuriger er gekeken wordt, des te duidelijker de tekortkomingen. De touwtjes, de ducttape en de trucjes die het geheel bij elkaar houden zijn inmiddels voor iedereen zichtbaar. Is het gewoon een typisch geval van ‘move fast and break things’? Is “AI” gewoon te vroeg de spotlight in gedrukt, of zal deze technologie nooit de beloofde hoogtes bereiken? Het lijkt er op dat het dat laatste zal zijn.

AI liegt

En niet zo’n beetje ook. Over of een film al is uitgekomen, over welke dag het vandaag is. Of de rechtszaken, literatuur of quotes die het citeert daadwerkelijk bestaan. En dat is helemaal zonder menselijk aansturen. Uiteraard kan een “AI” desgevraagd een poging doen desinformatie te genereren. Het is een probleem op zich, maar onverantwoord gebruik van een technologie, hoe zorgelijk ook, is niet per definitie een veroordeling van de technologie zelf. Dit lijkt zelfs een probleem te zijn dat aan de grondvesten staat van hoe “AI” werkt.

“AI” verzint namelijk niet soms wat, maar altijd. Het is hoe het systeem werkt. Op basis van informatie die het systeem gevoed wordt, doet het voorspellingen over de meest waarschijnlijke volgende pixel, het meest waarschijnlijke volgende woord. Dit doet het zonder besef van de overkoepelende gedachte van het eindproduct. En dus zal het onjuiste voorspellingen blijven doen. Dat is niet de conclusie van deze auteur, maar bijvoorbeeld van Daniela Amodei, mede-oprichter en president van Anthropic, de maker van AI chatbot Claude2.

“Ze (AI) zijn gewoon soort van ontworpen om het volgende woord te voorspellen. Dus zullen er gevallen blijven wanneer het model dat inaccuraat doet.”

Inherent aan hoe AI werkt

“Dit is niet te fixen.” Zegt Emily Bender, professor taalkunde. “Het is inherent aan de mismatch tussen deze technologie en de beoogde toepassingen.” Hiermee doelt Bender op de tech bedrijven die “AI” in elke sector van onze samenleving willen toepassen. Een model dat snel lappen tekst of afbeeldingen kan genereren, is gewoon niet in staat om bijvoorbeeld consistent accuraat medische beoordelingen te doen.

Volgens Bender is een taalmodel (een soort generatieve “AI”) niet meer dan “een systeem dat de waarschijnlijkheid van verschillende strengen aan woorden modelleert.” Zo’n model doet dat op basis van de ‘trainingsdata’ die het gevoerd wordt. De recente ontwikkelingen maken generatieve “AI” steeds indrukwekkender, maar uiteindelijk blijft “AI” gewoon het meest waarschijnlijke volgende woord of pixel selecteren.

Alles wat een “AI” genereert is dus gewoon een gokje. Succes is wanneer het proces, puur toevallig, een resultaat genereert waar we mee kunnen leven. Door deze feedback te geven aan het systeem wordt het systeem wel iets beter in het genereren van dergelijke resultaten. Maar dat lost het inherente probleem niet op dat een “AI” gewoon aan het gokken is, en dus fouten zal blijven maken. Hoe een “AI” tot een resultaat komt weten we overigens steeds minder goed te duiden.

Wat nu?

Dat “AI” geen ‘besef’ heeft van wat het doet wordt pijnlijk duidelijk wanneer je “AI” met “AI” data traint. Dan stort het hele kaartenhuis namelijk vrij rap in. Maar dat betekent niet dat “AI” helemaal geen nut heeft. “AI” kan bijvoorbeeld prima gebruikt worden in de film- en game-industrie om snel een basis te maken voor verdere bewerkingen door mensen. Niet voor niets zijn acteurs en schrijvers het felst over de toepassingen van de nieuwe ontwikkelingen.

Maar “AI” zoals we het nu kennen gaat nooit in staat zijn om consistent en autonoom kwalitatief hoogwaardige producten te leveren. De hallucinaties die inherent zijn aan de manier waarop deze technologie werkt zullen dat, vrees ik, blijven verhinderen. Dat verhindert het gebruik van “AI” in de huidige staat, in bijvoorbeeld zoekmachines als Google en Bing. Wanneer je zonder checken niet kan weten of Google een resultaat verzonnen of ergens gevonden heeft kan je het systeem niet vertrouwen.

Dat vindt Sam Altman ook. De CEO van OpenAI heeft herhaaldelijk aangegeven dat hij de antwoorden van zijn ChatGPT compleet niet vertrouwt. “AI” zal beslist nuttige toepassingen kennen. Complexe rekenmodellen hebben dat vrijwel altijd. Maar de opsmuk rondom de technologie verhindert dat het bredere publiek “AI” goed op waarde kan schatten. Over een jaar of tien zullen generatieve modellen in een verscheidenheid aan velden gebruikt worden, daar twijfel ik niet aan. Maar laten we het houden bij toepassingen waar menselijke breinen het gegenereerde materiaal bewerken voor het het daglicht ziet. Misschien moeten we alvast maar beginnen met het verzinnen van een nieuwe naam. Want kunstmatig is “AI” zeker, maar intelligent allerminst.

Eén reactie

  1. Grappig dat hallucinaties worden aangeduid als nadeel van AI. Ik zou zeggen dat het juist een geweldige prestatie is. Het produceren van hallucinaties is immers precies wat het menselijk brein voortdurend doet. Dit is wat de neurowetenschap steeds weer aantoont. Zie ook het geweldige boek van Anil Seth, Being You. Met die hallucinates proberen we onze waarnemingen te interpreteren en de gevolgen van onze acties te voorspellen (Friston). We passen onze hallucinaties voortdurend aan op nieuwe waarnemingen en ervaringen. Daardoor worden voorspellingen steeds beter. ChatGPT doet dat ook, maar met aanzienlijk meer data. Het is in het hallucinatieproces ingebakken dat er fouten worden gemaakt. Mensen met een psychose kennen overdreven gewicht toe aan hun hallucinaties. Autistische mensen aan hun waarnemingen. Ik zou zeggen dat het vooruitgang is dat we ook kunstmatige hallucinatiemachines kunnen maken. Verbeteringen in AI-voorspellingen zijn te realiseren door het evenwicht tussen toegekende gewicht aan hallicunaties en aan data te optimaliseren. Ook de betrouwbaarheid van (bias in) gebruikte data speelt een rol. De meeste complotdenkers hebben bijvoorbeeld het probleem van een te beperkte hoeveelheid data en/of onbetrouwbare data om hun hallucinaties bij te stellen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *