Microsofts AI-assisterede version af Bing-søgemaskinen er overbevisende, men selv under den offentlige fremvisning, kunne den ikke undgå at give svar med en stribe faktuelle fejl.
Ved eventet understregede Microsofts administrerende direktør, Satya Nadella, overfor finansmediet CNBC, ar teknologien kan give svar på sprøgsmål, som lyder som var de skrevet af et menneske og at det kan sammenlignes med ’den industrielle revolution for vidensarbejde’.
Tjenestens AI-assisterede svar bød dog på faktuelle fejl under selve seancen, hvor den blandt andet analyserede regnskaber fra virksomheden Gap og Lululemon. Visse tal var udeladt og andre var opfundet.
I tjenesten analyse af Gap-regnskabet dukkede følgende fejl op:
- Dækningsbidraget blev angivet til 37,4 procent i stedet for 38,7 procent
- Driftsmargin lød på 4,6 procent i stedet for det reelle tal på 5,9 procent
- Udbyttet per aktie lød på 0,42 dollar i stedet for de korrekte 0,71 dollar eller 0,33 dollar efter skat.
- Til sidst kom Bing AI med en prognose, hvori der indgik oplysninger om fremtidig dækningsbidrag og udbytte, en prognose som virksomheden skrottede i august.
Ud over fejl i de to virksomhedsanalyser, fik Bing AI også nogle faktuelle fejl i teknikbladet om en støvsuger og rejesplaner til Mexico, noterer han.
De opfundne oplysninger kaldes for ’hallucinationer’, hvor den kunstige intelligens synes at opdigte nye, ukorrekte oplysninger tilsyneladende ud af den blå luft.
Ved Googles sammenlignelige præsentation af sin pendant til Bing AI og ChatGPT, kaldet ’Bard’, døjede søgegiganten ligeledes med en AI-assisteret chatbot med en tendens til at give faktuelt forkerte svar.