superintelligentie

Techleiders willen tijdelijk moratorium op AI

ChatGPT 4.0 toont sporen van algemene intelligentie die die van mensen beginnen te benaderen. Op een IQ-test scoort ChatGPT 4.0 nu al behoorlijk hoog, hoger dan de meeste mensen. Je zou in veel opzichten GPT-4 de eerste algemene kunstmatige intelligentie (AGI) kunnen noemen. Reden voor vooraanstaande techleiders als Musk, Skype-oprichter Jaan Tallinn en schrijver Yuval Harari om in een open brief op te roepen tot een moratorium.

In het Bulletin of Atomic Scientist werd al in 2017 gewaarschuwd voor superintelligentie. Bron: Bulletin of Atomic Scientists

Open brief

Op dit moment zijn de ontwikkelaars van kunstmatige intelligentie, zoals Microsoft/OpenAI, Google en Facebook, en hun Chinese concullega’s, gewikkeld in een gevecht op leven en dood om steeds snellere en steeds betere Ai’s te ontwikkelen. Alle veiligheidsmaatregelen lijken over boord te worden gegooid.

Reden om voor grootheden uit de techwereld, waaronder AI-kenners, zoals Musk, Wozniak en de historicus Yuval Harari, om op te roepen tot een moratorium van een half jaar op de verdere ontwikkeling van AI. In dat halve jaar kunnen we als maatschappij ons aanpassen aan de komst van AI, die nu al ongeveer zo slim is al een mens en profiteren van de zegeningen van Ai, zonder dat we ons in een risicovol avontuur zonder weg terug kunnen gaan storten.

Zijn de zorgen van Musk en Wozniak terecht?

Mijns inziens, zonder meer ja, waarschijnlijk zijn ze zelfs nog te mild. Zeker op dit punt. Dit om meerdere redenen die elkaar versterken. Veel aandacht, ook hier, wordt er besteed aan banen die overbodig worden omdat een veel goedkopere AI die overneemt. En waar geen nieuwe banen voor terugkomen, omdat een Ai ook die banen kan overnemen. Veel mensen vinden hun werk leuk, en als een Ai dat werk vervangt, is dat een ernstige achteruitgang van hun levenskwaliteit en levensvervulling. Helaas lijken vooral de leukste banen, tekstschrijven, advisering, kunst, ontwerpen, bedreigd te worden. Schoonmakers blijven nog wel even nodig.

Superintelligentie, de gevaren

De opvolger van een AGI zoals, zo lijkt het steeds meer, GPT-4 al is, is een ASI (Artificial Super Intelligence). Een kunstmatige superintelligentie dus die slimmer is dan welke mens dan ook. Wij mensen kunnen niet de beweegredenen van wezens die slimmer zijn dan wij, begrijpen. Zie de klaagzangen in verenigingsblaadje Mensa Berichten (nu HiQ Magazine, en een stuk positiever), de periodiek van hoogbegaafdenvereniging Mensa, dat normaalbegaafden ze niet begrijpen. Neem dat gevoel, nu maal tienduizend.

En zelfs als we een superintelligentie precies dat laten doen wat we deze opdragen, kunnen de gevolgen totaal uit de hand lopen. Stel, de superintelligentie wordt “ingehuurd” om de omzet en winstcijfers van een multinational, bijvoorbeeld verzendhuis Amazon, zoveel mogelijk te verhogen. Dan zou deze bijvoorbeeld het idee aan kunnen dragen om een nieuw covid-achtig virus te ontwikkelen waardoor mensen thuis moeten blijven en hun spulletjes bij Amazon kopen. Kassa!

Prioriteit van een superintelligentie zal zijn: zelfbehoud. Zeg niet ik, zegt GPT-4. En zolang er een stel zwakzinnige, onvoorspelbare tweebeners de macht hebben om een superslimme AI te vermoorden (door deze uit te schakelen of zelfs te wissen) zal prioriteit 1 van deze AI zijn: zorgen dat deze tweebeners dat niet doen, en onder controle staan. This won’t end well. Vandaar dat we nu moeten ingrijpen, voor het definitief te laat is.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *