De ‘Godfather van AI’ stopt bij Google en waarschuwt voor gevaar aan de horizon

“I’m Sorry Dave, I’m Afraid I Can’t Do That.” Dat kunstmatige intelligentie geen nieuwe boeman is staat vast. reeds in 2001: A Space Odyssey was Hal 9000, een robot met een menselijke persoonlijkheid, de antagonist. De Terminator is nog een voorbeeld van een (in ieder geval ogenschijnlijk) zelfbewuste robot. Maar Skynet en Hal 900 zijn bedacht in een wereld waar zelfbewuste technologie niets meer was dan pure sciencefiction. Wat wij vandaag de dag AI noemen mag dan nog niet zelfbewust zijn, toch wordt er steeds meer gewaarschuwd voor de gevaren. Dit keer door iemand die wel heel dicht bij de materie staat. Geoffrey Hinton waarschuwt in een stuk uit de New York Times voor wat ons volgens hem te wachten staat.

Kunstmatige Intelligentie Pionier

Hinton is niet de eerste de beste. Hij spendeerde de afgelopen tien jaar bij Google waar hij instrumenteel was voor de technologie die nu bijvoorbeeld door ChatGPT gebruikt wordt. Nu heeft hij dus zijn bedenkingen: “Ik troost mezelf met de gebruikelijke excuses, namelijk, als ik het niet gedaan had, dan wel iemand anders.” 

Zijn vertrek heeft volgens Hilton niet specifiek iets te maken met Google, maar meer met de technologie op zich. Google op haar beurt looft Hilton en geeft aan de huidige weg te blijven bewandelen. Het bedrijf maakt zich duidelijk (in ieder geval publiekelijk) nergens druk om, maar waarom ziet Hilton dan beren op de weg? Nee, niet nucleaire oorlogen of weigering van dienst nadat je wel honderd keer hebt gevraagd of die buitendeur nou eindelijk open kan. Het gaat Hilton om banen en ‘fake news’. 

AI op tilt

In een wereld waar kunstmatige intelligentie vergevorderd is zullen een flink aantal banen komen te vervallen. Het bedienen van machines, customer service, maar ook het produceren van beeldmateriaal zijn allemaal taken waar de technologie op het moment wordt getraind. Als de ontwikkelingen te hard gaan staat een goed deel van de mensen straks ineens op straat. Hilton maakt zich zorgen om de ontwrichtende gevolgen die dit kan hebben op de samenleving. 

Ook de potentie om desinformatie te verspreiden baart Hilton zorgen. De huidige AI modellen zijn generatief, dat wil zeggen, ze produceren zelf materie. Het mag nu nog duidelijk zijn wanneer een beeld door een kunstmatige intelligentie is geproduceerd, de ontwikkelingen gaan hard. Blijft het zo doorgaan, dan is het in de nabije toekomst wellicht niet meer te achterhalen welke beelden nep zijn en welke echt, met alle gevolgen van dien.

Neem het volgende voorbeeld: Frank van Harmelen is hoogleraar kunstmatige intelligentie aan de VU en vroeg laatst een AI om al zijn acht boeken op te sommen. Het feit dat Van Harmelen er maar zes heeft geschreven zat de chatbot niet dwars, het programma produceerde netjes een lijst van acht boeken met erg geloofwaardige titels. “Als je die techniek aan gewone burgers ter beschikking stelt, en die weten niet de zin van de onzin te scheiden, leidt dat snel tot brokken.” Zo zei hij tegen NOS.

Dan hebben we het nog niet gehad over de mogelijkheden die autonome wapensystemen te bieden hebben. Van alle reeds genoemde applicaties lijkt deze nog het meest ver weg, maar de ontwikkelingen, zoals eerder genoemd, gaan hard.

Meer mensen met vraagtekens

Niet voor het eerst wordt er publiekelijk aan de bel getrokken. Afgelopen maart tekenden tientallen tech-CEO’s, hoogleraren en onderzoekers een petitie die oproept tot een pauze in AI-onderzoek. Ook de handtekeningen van grote namen zoals Steve Wozniak (Apple mede-oprichter), Andrew Yang (politicus) en Elon Musk (zoon van een smaragdmijn eigenaar) stonden er onder. Tot op heden geven bedrijven als Google en Meta (Facebook) er geen gehoor aan.

Gelukkig wordt er ook op wetgevend gebied steeds meer rekening gehouden met AI. Bijvoorbeeld binnen de EU, waar een voorstel klaar ligt om generatieve AI modellen (zoals ChatGPT) te gaan reguleren.

Eén reactie

  1. […] Laten we voorop stellen, er zullen zeker mensen zijn waarvoor dit soort functionaliteit een verbetering van de levenskwaliteit zal betekenen. En dat is vooral heel erg fijn voor die mensen. Toch is het maar zeer de vraag of het wenselijk is dat commercieel beschikbare software straks met zo weinig materiaal een stem kan nabootsen. Niet voor niets uiten steeds meer mensen uit de AI wereld hun zorgen over de technologie. […]

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *