Den snabba utvecklingen av chattbotar, stora språkmodeller och andra AI-teknologier håller på att förändra hela cybersäkerhetsfältet. Samtidigt som hackare redan utnyttjar tekniken till sin fördel tvingas försvarssidan snabbt anpassa sig för att hålla jämna steg och förhindra eskalerande skador.
Hotanalytiker konstaterar att både cyberkriminella och statsunderstödda grupper numera regelbundet använder AI-drivna verktyg för attacker. På andra sidan använder säkerhetsteamen samma teknologi för att identifiera sårbarheter och blockera angrepp innan de får genomslag.
Ukrainska myndigheter
En rapport från ukrainska myndigheter och säkerhetsforskare bekräftar att en AI-rustningskapplöpning pågår. I juli upptäcktes Lamehug, den första publikt dokumenterade AI-drivna skadeprogramvaran, utvecklad av den ryska hackergruppen APT28. Angreppet använde en språkmodell via Hugging Face API för att omvandla mänskliga instruktioner till komplexa attacker på infekterade datorer.
Heather Adkins, Googles vice vd för säkerhetsingenjörskonst, uppger att stora språkmodeller redan hjälper bolaget att hitta säkerhetsluckor i spridda mjukvaruprodukter. Googles egen modell Gemini har hittills identifierat minst 20 allvarliga buggar, och resultaten har delats med berörda leverantörer. Enligt Adkins är detta bara början på en längre utveckling.
Användbara
AI har ännu inte förändrat cybersäkerheten i grunden, men språkmodeller visar sig användbara för att automatisera tidskrävande arbetsuppgifter som säkerhetsanalytiker redan utför. De kan påskynda processen för att upptäcka sårbarheter och därmed effektivisera försvarsarbetet, även om de inte ersätter mänsklig expertis.
Samtidigt varnar cybersäkerhetsföretaget CrowdStrike för att hackare och utländska underrättelsetjänster redan använder AI i allt större omfattning. Företaget ser växande tecken på att kinesiska, ryska och iranska aktörer använder språkmodeller och chattbotar i sina attacker.
Trots att teknikjättar och startups satsat hundratals miljarder på AI har de ännu inte levererat breda kommersiella lösningar. Hackare ligger däremot steget före genom att använda tekniken för att automatisera avancerade angrepp och snabbt dra ekonomisk nytta av utvecklingen.
Risker
Utvecklingen innebär risker men också möjligheter. Alexei Bulazel, högsta cybersäkerhetschef vid USA:s nationella säkerhetsråd, bedömer att AI på sikt kommer att gynna försvarare snarare än angripare. Han framhåller att tekniken ger bredare tillgång till information om sårbarheter och en ökad förmåga att upptäcka återkommande buggar, vilket ger säkerhetsteamen ett viktigt övertag.
Källa:
Techspot