Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
En viral nyhed er lige nu, at OpenAI har opdateret deres funktionalitet til at lave billeder inde i ChatGPT.
Man kan nu lave billeder, der før ikke var mulige på grund af "guard rails" – altså regler om, hvad man må og ikke må gøre, der forhindrede brugeren i at lave visse billeder.
Samtidig kan man nu også som noget nyt manipulere eksisterende billeder, man lægger op via ChatGPT. Hello Deep-fake!
Det er er stadig nogle guard rails, men de lader til at være en del løsere end før.
LinkedIn og andre sociale medier er oversvømmet af billeder – hvoraf mange tangerer eller ligefrem overtræder både etiske og juridiske grænser, hvor de sidstnævnte er forsøgt optegnet i følgende tabel, som jeg har forsøgt at sammensætte, selv om jeg ikke er decideret jurist:
Som bruger/virksomhed skal man altså være opmærksom på, at OpenAI har sagt op som babysitter for deres abonnenter, når det kommer til billeder.
For at kunne give os den nye og stærkere model, der kan langt mere end tidligere, har de været nødt til at lægge ansvaret tilbage på os, så nu skal vi altså tænke os ekstra godt om, i forhold til hvordan vi bruger det.
Samtidig er mulighederne så også virkelig mange.
Her ses til inspiration hvordan jeg har taget foto af min søns børnetegning og lavet det til en ægte tegneserie, med prompten:
"Lav en vellignende tegneserie-version som billede af denne tegning med fint layout og farver."
Men hvad er det, vi har fået, og hvordan virker det?
Den korte, ikke for tekniske forklaring er, at når du nu beder ChatGPT om at lave et billede, for eksempel "en kat med en hat", så starter systemet med at læse og forstå teksten, lidt som en oversætter, der gør ord til idéer.
Derefter bygger det billedet ét skridt ad gangen, som en kunstner, der starter med en skitse og langsomt tilføjer flere detaljer.
Systemet kigger hele tiden undervejs på dine ord (eller dit billede, hvis den får et billede som input også) for at sikre, at det, der bliver tegnet, passer til det, du bad om.
Først til allersidst bliver det, den har "opbygget", så lavet om til et rigtigt billede, som du kan se.
Hvis du giver den et billede i forvejen og siger, hvad der skal ændres – som "giv katten en hat", så ændrer den kun det nødvendige, uden at ødelægge resten af billedet, selv om den faktisk skaber det nye billede forfra.
Jeg er lidt overrasket over denne udvikling, da vi ellers tidligere har set at AI-forordningen, GDPR, med videre, har gjort, at OpenAI har været tilbageholdende med at frigive teknologi, der kan manipulere inden for EU's grænser, sådan som vi så det med SORA og Advanced Voice.
Under AI-forordningen kan der for eksempelvis være et krav om, at AI-genererede medier afmærkes som sådan og der er det, så vidt jeg ved, også sådan at billeder genereret i ChatGPT har et digitalt vandmærke (ikke synligt men inde i selve filen), der viser dette.
Så helt væk er babysitteren ikke, men det er, og bliver i fremtiden også, interessant at følge udviklingen af, hvor meget der lægges over til brugerne, og hvor meget der sættes op som guard rails og andre restriktioner.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.