Forskare varnar: AI-kod smyger in säkerhetsbrister

av | aug 8, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Kod som skrivs med hjälp av AI-verktyg som ChatGPT och GitHub Copilot används nu i stor skala – även i säkerhetskritiska system. Samtidigt är det fortfarande oklart vem som bär ansvaret när dessa verktyg producerar kod med allvarliga sårbarheter.

En ny studie från Cornell Tech och det tyska Max Planck-institutet visar att många utvecklare som använder AI-assistans har bristande förståelse för säkerhetskonsekvenserna. Många litar blint på den genererade koden, utan att göra nödvändiga kontroller. Enligt forskarna används AI-kod i allt från webbapplikationer till infrastrukturprojekt – trots att verktygen kan generera farliga misstag, exempelvis felaktig hantering av inloggning, bristfällig kryptering eller sårbara API-anrop.

Användningen sker ofta i stressade miljöer där utvecklare prioriterar snabb leverans. Resultatet är att AI-genererad kod införs direkt i skarpa system – utan granskning, utan tester, och i vissa fall utan att den mänskliga utvecklaren förstår vad koden egentligen gör.

Ingen ansvarig

Forskarnas största kritik riktas dock inte mot utvecklarna, utan mot teknikföretagen. OpenAI, Google, Microsoft och andra aktörer som står bakom de stora språkmodellerna lägger hela ansvaret på användaren. Samtidigt har de kommersialiserat sina verktyg och uppmuntrar utvecklare att integrera AI i sina arbetsflöden.

Det har lett till en situation där ingen egentligen är ansvarig om AI-genererad kod leder till säkerhetsincidenter. Det saknas också reglering kring hur dessa verktyg får användas i kritisk mjukvara – och någon kvalitetskontroll existerar inte.

Enligt forskarna krävs nu både tekniska förbättringar och politiska åtgärder. Verktygen behöver varningssystem som markerar riskabel kod och användare måste utbildas i säkerhetsbedömning. Men framför allt behövs tydligare regler för ansvarsfördelning – och transparens kring hur verktygen fungerar och tränats.

Huvudkälla: Help Net Security

Magasin Macken använder AI för att samla in information och underlag för de texter som publiceras. Vi använder även AI för att skapa bilder och illustrationer. Dessa märks alltid med att det är AI-bilder om bilderna är fotorealistiska. I förekommande fall så läggs även till länkar till källa och referenser till i texterna som alltid kontrolleras av en mänsklig skribent – som är den som skriver och redigerar alla texter till alla väsentliga delar. 

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen:

EU vill lätta på reglerna för cookie-banners

EU vill lätta på reglerna för cookie-banners

För mer än ett decennium sedan skrev EU om internetreglerna och tvingade hela nätet att införa strängare krav på samtycke till cookies genom ändringar i ePrivacy-direktivet. Sedan 2009 har allt från teknikjättar till små bloggar och i princip alla nätbaserade…

läs mer