Teknologi

En AI skrev en fungerende zero-day-udnyttelse — Google nåede at stoppe angrebet

Susan Hill

Udnyttelsen var rettet mod tofaktorgodkendelse, det ekstra trin der beskytter de fleste konti, vi bekymrer os om: mail, bank, skylager, arbejdslogins. Sårbarheden, en semantisk logikfejl i værktøjets Python-kode, lod en angriber, der allerede havde stjålne legitimationsoplysninger, springe 2FA-kontrollen over ved at udløse en hårdkodet undtagelse, som udviklerne aldrig havde tænkt sig at blotlægge. Google identificerede fejlen, indrapporterede den til leverandøren med henblik på en rettelse og afbrød det planlagte angreb, før det gik i gang. Det nye er ikke fejlen i sig selv, men måden den blev fundet på.

Googles analytikere siger, at udnyttelseskoden bar tydelige fingeraftryk fra en stor sprogmodel — docstrings i undervisningsstil, meget struktureret formatering og en skrivestil, de beskriver som meget typisk for LLM-træningsdata. Holdet konkluderede med høj sikkerhed, at det var en AI og ikke en enkelt person, der bar hovedparten af opdagelses- og våbeniseringsarbejdet. Den ramte virksomhed, den kriminelle gruppe og navnet på værktøjet er fortsat ikke offentliggjort.

Det er en vigtig forskel, fordi fejlen er præcis den slags, maskiner ikke var gode til at finde. Klassiske sårbarhedsscannere leder efter nedbrud og hukommelsesfejl. Her var det en modsætning mellem logikken bag 2FA og en hårdkodet undtagelse — den slags fejl en omhyggelig revisor kan opdage ved at læse tusindvis af linjer kode på jagt efter uoverensstemmelser. De mest avancerede sprogmodeller, bemærker Google, bliver stadig bedre til den slags kontekstlæsning, i tempi intet revisionshold kan matche.

Rapporten beskriver også et bredere mønster, som intet har med kriminelle grupper at gøre. En Kina-orienteret klynge, der spores som UNC2814, bruger AI til at fremskynde sårbarhedsforskning på indlejrede enheder. APT45, en nordkoreansk gruppe, fodrede en model med tusindvis af gentagne prompts for at analysere CVE-poster rekursivt og validere proof-of-concepts. Forskellige operatører, samme teknik: gør modellen til en utrættelig forskningsassistent.

Googles fortælling har grænser, der er værd at nævne. Virksomheden har ikke navngivet hverken det ramte værktøj, trusselsaktøren eller tidsplanen for rettelsen og beder læserne tro på konklusionen om AI-fingeraftryk udelukkende på baggrund af sin interne analyse. Ingen af de tredjepartsbekræftelser, der er udsendt i denne uge, bidrager med en uafhængig retsteknisk vurdering af selve udnyttelseskoden. Den høje sikkerhed er GTIGs ord mod den kriminelle gruppes tavshed. Det er også stadig sandt, at den underliggende fejl — en hårdkodet undtagelse — er præcis den slags forglemmelse, menneskelige udviklere har lavet i årtier uden nogen AI-hjælp. Modellen har måske fremskyndet opdagelsen; fejlen er ældre end det system, der fandt den.

For de fleste brugere er der ingen umiddelbar handling — fejlen ligger i software, som it-afdelinger håndterer, ikke på personlige enheder — men konsekvensen er direkte. Det forsvarsperimeter, vi læner os op ad, fra adgangskodeadministratorer til virksomheders single sign-on, blev designet mod menneskelige angribere, der arbejder i menneskeligt tempo. En AI-assisteret angriber læser en kodebase, som en erfaren ingeniør læser et afsnit. Forsvarerne bliver nødt til at lære det samme.

Det bekræftede er, at den berørte leverandør er informeret og er ved at udrulle en rettelse. Den bredere analyse blev offentliggjort som del af Google Clouds løbende trusselsefterretningsserie om AI i offensiv sikkerhed den 11. maj 2026. Googles chefanalytiker for trusler, John Hultquist, sagde til journalister i de følgende dage, at kapløbet mellem AI og forsvarere allerede er i gang og ikke ligger forude. En opfølgende rapport om AI-understøttede værktøjer ventes inden udgangen af andet kvartal.

Debat

Der er 0 kommentarer.