Det Europæiske Databeskyttelsesråd (EDPB) mener, at OpenAI’s indsats for at reducere fejl i deres chatbot, ChatGPT, ikke er tilstrækkelig i forhold til EU's databeskyttelsesregler.
Selvom arbejdsgruppen anerkender ChatGPT's gennemsigtighed, er den fortsat bekymret over chatbottens evne til at levere korrekte data.
Det fremgår af en nyligt offentliggjort rapport fra EDPB.
Arbejdsgruppen, som har gennemgået chatbotten, skriver i sin rapport, at chatbottens gennemsigtighed er tilstrækkelig til at undgå misforståelser, men at den stadig er utilstrækkelig med hensyn til at opfylde princippet om datakorrekthed.
Det bliver blandt andet beskrevet, hvordan data indsamlet gennem webscraping og brugerinteraktioner bruges til at træne ChatGPT.
Specifikt nævnes det, at "outputs fra ChatGPT sandsynligvis vil blive taget som faktuelt korrekte af slutbrugerne, uanset deres faktiske nøjagtighed".
"På grund af systemets probabilistiske natur fører den nuværende træningsmetode til en model, der også kan producere skævvredne eller opdigtede output," skriver arbejdsgruppen.
Arbejdsgruppen bag rapporten blev oprettet sidste år, efter at nationale tilsynsmyndigheder, ledet af Italien, udtrykte bekymring over AI-tjenesten. Flere EU-medlemslande har også indledt deres egne undersøgelser, som stadig pågår. OpenAI har indtil videre ikke kommenteret sagen.