ChatGPT lyver gang på gang, når den bliver adspurgt om detaljer på bestemte personer - eksempelvis deres fødselsdato og lignende.
Og det betyder, at løsningen ikke lever op til nogle af de mest basale krav i europæiske datalov, mener Max Schrems og hans aktivistiske organisation Noyb [‘None Of Your Business,’ red]
For GDPR kræver, at data om personer er korrekte, og at de enkelte personer altid har fuld adgang til de lagrede data om dem samt mulighed for at få at vide, hvor data kommer fra.
Heller ikke det kan eller vil ChatGPT levere, lyder det fra Noyb.
Organisationen har gentagne gange forsøgt at få ChatGPT til at levere data på en bestemt person som fødselsdato, adresse og lignende.
Hver gang kom ChatGPT med et fejlagtigt svar fremfor at meddele, at den ikke var i stand til at svare.
Selv om OpenAI ifølge Noyb har anerkendt, at den løj i sine svar, vil OpenAI ikke hverken rette eller slette de fejlagtige oplysninger, som fremkommer.
Ifølge Noyb meddeler OpenAI, at det ikke er muligt at filtrere eller blokere de forkerte oplysninger om personer uden at blokere helt for alle oplysninger om dem.
Ifølge Noyb meddeler ChatGPT, at ChatGPT kun kan ‘generere svar på spørgsmål ved at forudsige de mest sandsynlige ord, der måtte være i et svar på hver prompt.’
Ifølge Noyb kræver GDPR-reglerne, at man kan kræve, at al fejlagtigt infomation om individer skal slettes eller tilrettes, så de er i overenstemmelse med sandheden.
Men heller ikke kan eller vil OpenAI gøre med ChatGPT.
“Det er i sig selv ret problematisk at opfinde løgnagtig information. Og det kan have alvorlige konsekvenser, når det drejer sig om personer,” lyder det fra Noyb-advokat Maartje de Graaf.
“Hvis et system ikke kan producere præcis og transparente resulteter, så må det ikke anvendes til at generere data om individer. Teknologien er nødt til at følge loven, ikke den anden vej rundt,” siger hun.
Noyb har indbragt sagen for det østrigske datatilsyn.
Du kan læse hele sammenfatningen af Noybs synspunkter her: ChatGPT provides false information about people, and OpenAI can’t correct it.