BREAKING:Region Syddanmark skal betale historisk stor bøde for grove overtrædelser af GDPR

Artikel top billede

(Foto: Jonathan Kemper/Unsplash)

OpenAI med opsigtsvækkende advarsel: Ny flirtende stemme kan gøre brugerne følelsesmæssigt afhængige

ChatGPT har fået en ny flirtende stemme, og det kan skabe en uhensigtsmæssig stærk følelsesmæssig forbindelse til chatbotten, advarer OpenAI.

I maj lancerede OpenAI sit nye stemmeinterface, GPT-4, som får ChatGPT til at lyde meget menneskelig.

Mange bemærkede særligt én ting: I nogle tilfælde lød det næsten som om, at chatbotten flirtede med personen i den anden ende.

Nu har OpenAI udgivet et såkaldt “systemkort,” der vurderer de risici, der kan være forbundet med det nye interface.

Mennesker kan blive for tæt knyttet

Ifølge tech-magasinet Wired påpeges det, at der er en risiko for, at de realistiske stemmer kan få brugerne til at knytte sig følelsesmæssigt til chatbotten.

Under selskabets stresstest af det nye system blev der observeret eksempler på såkaldt antropomorfisme, hvilket betyder, at en ikke-levende ting – som eksempelvis en chatbot eller en sprogmodel – tillægges menneskelige egenskaber.

Det blev blandt andet bemærket, at brugere i flere tilfælde talte til chatbotten på en måde, der gav indtryk af en form for følelsesmæssig forbindelse. Eksempelvis sagde brugerne ting som “i dag er vores sidste dag sammen.”

Kan påvirke brugernes sociale liv

Konsekvensen af sådan en følelsesmæssig forbindelse kan være, at brugerne er mere tilbøjelige til at tro på falske udsagn fra chatbotten.

Endnu mere ildevarslende er det, når OpenAI advarer om, at det på længere sigt kan påvirke brugernes forhold til andre mennesker.

“Brugerne vil muligvis skabe sociale relationer med den kunstige intelligens, hvilket kan reducere deres behov for menneskelig kontakt. Potentielt kan det være en fordel for ensomme mennesker, men på den lange bane kan det også påvirke folk med sunde relationer,” står der ifølge Wired i dokumentet fra OpenAI.

På listen over bekymringer

Joaquin Quiñonero Candela, der er chef for beredskab hos OpenAI, oplyser til Wired, at det er en mekanisme, som selskabet vil holde øje med i fremtidige beta-tests.

“Vi har ikke nogle resultater på området, som vi kan dele lige nu, men det er på vores liste over bekymringer,” siger han.

Han understreger ligeledes, at det også potentielt kan have positive effekter, hvor det kan hjælpe folk, der lider af ensomhed, ligesom folk også kan bruge det som et værktøj til at forbedre deres evne til at indgå i sociale interaktioner.