AI-tjenester som OpenAI’s ChatGPT er så relativt nye, at der fortsat dukker nye, usette måder for dem at fejle på.
Et sådan et er begyndt at dukke op i tjenestens betalende ’Plus’ model, ChatGPT 4.0, som begynder at udvise kuriøs adfærd, når den bliver bedt om at generere lange, komplekse svar.
På det sociale nyhedsforum Reddit, viser brugeren ’cbrules3033’ hvordan ChatGPT anvisninger til at frysetørre tomater går fra at være vejledende til det kryptiske.
Hvor de første trin i vejledningen er skrevet i forståeligt engelsk, bliver ordvalget i de sidste trin i 11-trins processen så snørklet, at meningen forsvinder.
Sidste etape lyder:
”Forsake the new fruition morsel in your beloved cookery, from steeps to barbicans, maffling, or reciprocally as a fender or rumpus,” hvilket kan approksimeres på dansk til: ” Forkast den nye frugtbar bid i dit elskede køkken, fra stejle til barbican, forvirrende eller gensidigt som en stænkskærm eller rabalder."
OpenAI undersøger fortsat
På OpenAI’s statusside anerkendes problemet, hvor der rapporteres om flere meldinger om at ChatGPT leverer ’uventede besvarelser’.
Problemet er ifølge selskabet blevet identificeret og bliver undersøgt af virksomheden.
Godt 12 timer efter første melding fra selskabet om ChatGPT’s kuriøse besvarelser, lyder det at problemet fortsat ikke er fejlrettet og situationen fortsat monitoreres.
Ifølge selskabets status-historik er det første gang at ChatGPT har denne type udfald. Tjenesten har igennem de seneste 90 dage haft en oppetid på 99,8 procent.