ChatGPT ook onder loep Nederlandse AP

De Autoriteit Persoonsgegevens, die onze privacy bewaakt., maakt zich zorgen om het snel oprukkende fenomeen ChatGPT. Volgens de AP slaat OpenAi, het bedrijf achter ChatGPT, van gebruikers persoonsgegevens op. Reden om een onderzoek in te stellen.

Persoonlijke informatie in trainingsdata

De Autoriteit Persoonsgegevens maakt zich vooral zorgen om wat er precies gebeurt met de data waarop ChatGPT is getraind. Dit is namelijk data die wij met zijn allen de afgelopen jaren op internet hebben geplaatst.

OpenAI en ook andere AI ontwikkelende internetbedrijven hebben de content van sociale netwerken, Wikipedia, forums en andere openbaar toegankelijke informatie gebruikt om hun neurale netwerken op te trainen.

De autoriteit persoonsgegevens is bang dat deze informatie wordt gebruikt om een persoonlijk profiel samen te stellen van gebruikers. In de eerste vier maanden is al door ruim anderhalf miljoen mensen gebruik gemaakt van ChatGPT.

De grootste onmiddellijke dreiging is daarom dat de vragen die gebruikers aan ChatGPT stellen, worden gebruikt om het model te trainen. Stel dat dat nogal privacygevoelig vragen zijn, bijvoorbeeld over seksuele geaardheid, politiek of gevoelige financiële informatie, dan kan het natuurlijk heel vervelende gevolgen hebben als deze informatie bij kwaadwillenden terechtkomt.

Het bestuur van de Autoriteit Persoonsgegevens. Bron: Autoriteit Persoonsgegevens, persmateriaal

Wat grote taalmodellen als GPT-4 en Palm V van Bard in feite doen, is bestaande tekst door elkaar husselen en daar hun eigen teksten van maken. Daarbij kan het voorkomen dat privacygevoelige informatie in de tekst van een antwoord aan iemand anders terechtkomt. Om die reden hebben sommige grote bedrijven zoals Samsung, de banken JP Morgan Chase en Deutsche Bank en natuurlijk defensiebedrijven als Northrop Grumman, het hun werknemers verboden om gebruik te maken van ChatGPT.

Foute informatie

Een tweede reden waarom de autoriteit persoonsgegevens besloot ChatGPT onder de loep te nemen, heeft te maken met het mogelijk verspreiden van foute informatie. Zoals blijkt uit het ChatGPT recept voor overheerlijke pasta met groene knolamanieten en motorolie, is het niet zo heel moeilijk om de AI gevaarlijke onzin te laten verkopen. Best wel logisch dus dat de Autoriteit zich daar zorgen over maakt.

En dan is er het probleem van mogelijk discriminerende algoritmes. Deze algoritmes moeten aan de eisen van de Wet Bescherming Persoonsgegevens (WPA) voldoen.

Europese reactie

Dit probleem is groter dan alleen Nederland, beseffen ook de andere Europese toezichthouders. Daarom hebben ze een werkgroep samengesteld die beleid gaat ontwikkelen om beter om te gaan met de uitdagingen die ChatGPT en soortgelijke generatieve kunstmatige intelligenties bieden.

De verantwoordelijke Nederlandse minister, Camiel Weerwind, liet het volgende weten. “Generatieve AI, zoals het grote taalmodel artificiële intelligentie (AI) systeem ChatGPT, is een grensoverschrijdend fenomeen dat vraagt om een geharmoniseerde aanpak. Daarom hecht de AP grote waarde aan een effectief gezamenlijk optreden van de Europese privacytoezichthouders”.

Weerwind vertrouwt er ook op dat de autoriteiten zo treden dus, in het kader van haar voorlichtende taak, naar buiten zal treden als daar aanleiding voor is.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *