Amazon er i al stilhed gået i gang med at træne sin helt nye AI-baserede sprogmodel, som under navnet ‘Olympus’ skal tage kampen op med løsningerne fra ikke mindst OpenAI og Alphabet.
Olympus er en sprogmodel i storskala - en såkaldt LLM [‘large language model,’ red] - altså ‘maskinen’ bag AI-løsningers flydende sprog og indhold.
LLM’erne kan trænes, så de bliver bedre og bedre til både at forstå, fortolke og fortælle i takt med, at de får tilført indhold med logik og sammenhæng.
Ifølge Reuters indeholder Amazons model to billioner parametre, hvilket gør Olympus til en af de helt store sprogmodeller, som for tiden er under opbygning.
Til sammenligning anslåes det, at OpenAI’s LLM, GPT-4, indeholder omkring det halve antal parametre, altså omkring en billion.
Ifølge Reuters har Amazon sat den tidligere chef for Alexa, Rohit Prasad, i spidsen for den store Amazon-AI.
Projektets vigtighed understreges af, at han refererer direkte til Amazons øverste chef, Andy Jassy.
Olympus-projektet er ikke Amazons første af slagsen, i det selskabet tidligere har trænet modeller - dog alle i meget mindre målestok end Olympus.
Ifølge Reuters mener Amazon, at det er vigtigt selv at udvikle LLM’erne, da egenudviklede systemer kan gøre selskabets ‘tilbud mere attraktive på AWS.’
Amazon har endnu ikke noget bud på, hvornår Olympus vil være klar til lancering.