Søgemaskinegiganten Google har på det seneste satset meget på generative AI-funktioner. For eksempel har selskabet lanceret AI-chatbotten Bard.
Googles AI-produkter kan være mål for ondsindede aktører i cyberlandskabet, og derfor udvider Google nu sit dusørprogram for at finde sårbarheder i selskabets software til også at gælde AI.
”Cybertrusler udvikler sig hurtigt, og nogle af de største sårbarheder opdages ikke af virksomheder eller produktproducenter - men af eksterne sikkerhedsforskere. Det er derfor, vi har en lang historie med at understøtte kollektiv sikkerhed gennem vores Vulnerability Rewards Program (VRP), Project Zero og inden for Open Source-softwaresikkerhed.”
Det skriver Laurie Richardson, direktør for sikkerhed og tillid hos Google, og Royal Hansen, direktør for privatliv og sikkerhed i et blogindlæg.
Og de fortsætter:
”I dag udvider vi vores VRP til at belønne for angrebsscenarier, der er specifikke for generativ kunstig intelligens.”
Dette sker for at opfordre til, at folk med gode intentioner finder sårbarheder, før potentielle skadelige aktører, men det kan også være fejl som bias, hallucinationer eller andet.
”Som en del af udvidelsen af VRP til kunstig intelligens, tager vi et nyt kig på, hvordan fejl skal kategoriseres og rapporteres. Generativ AI rejser nye og anderledes bekymringer end traditionel digital sikkerhed, såsom potentialet for unfair bias, modelmanipulation eller fejlfortolkninger af data (hallucinationer),” står der i blogindlægget.
Det fremgår ikke af indlægget, hvor store dusører, der er tale om. Dette vil nok afhænge af størrelsen og betydningen af fejlen. Sidste år udbetalte Google 12 millioner dollar i dusører til fejlfindere.
”Dette er tidlige skridt hen imod at sikre en sikker og tryg udvikling af generativ kunstig intelligens - og vi ved, at arbejdet lige er begyndt. Vores håb er, at ved at tilskynde til mere sikkerhedsforskning, mens vi anvender forsyningskædesikkerhed til kunstig intelliens, vil vi udløse endnu mere samarbejde med open source-sikkerhedsfællesskabet og andre i industrien og i sidste ende hjælpe med at gøre AI mere sikker for alle,” afslutter Google-cheferne.