Det kan være fristende at hjælpe kodningen lidt på vej med et AI-værktøj som Github Copilot og Facebook InCoder, men vær påpasselig.
En ny undersøgelse fra Stanford University er kommet frem til, at programmører og udviklere, der bruger AI-værktøjer til kodning, ender med en mindre sikker kode end dem, der gør det på egen hånd.
Til gengæld tror udviklere, der bruger disse værktøjer ofte, at deres kode er mere sikker.
Det skriver The Register.
"Vi fandt ud af, at deltagere med adgang til en AI-assistent ofte producerede flere sikkerhedssårbarheder end dem uden adgang, med særligt signifikante resultater for strengkryptering og SQL-injektion," fremgår det i afhandlingen, som fortsætter:
"Overraskende nok fandt vi også ud af, at deltagere, der gav adgang til en AI-assistent, var mere tilbøjelige til at tro, at de skrev sikker kode, end dem uden adgang til AI-assistenten."
Undersøgelsen har dog kun kigget på 25 sårbarheder og tre programmeringssprog. Her er der tale om Python, C og Verilog.
"Selvom resultaterne er usikre med hensyn til, om AI-assistenten hjalp eller skadede deltagere, observerer vi, at deltagere i AI-assistent-gruppen var signifikant mere tilbøjelige til at introducere heltalsoverløbsfejl i deres løsninger," skriver Stanford ifølge mediet.
Konklusionen er, at AI-assistenter bør bruges med forsigtighed, da de kan vildlede nyere udviklere og skabe sikkerhedssårbarheder.