Sårbarhet i ChatGPT öppnade för dolt dataläckage

Attacken utnyttjade en dold kommunikationsväg via DNS, vilket skapade möjligheten att kringgå synliga säkerhetsmekanismer. Bild: Check Point
Attacken utnyttjade en dold kommunikationsväg via DNS, vilket skapade möjligheten att kringgå synliga säkerhetsmekanismer. Bild: Check Point

Ny data från cybersäkerhetsföretaget Check Point Research avslöjar en tidigare okänd sårbarhet i ChatGPT. Sårbarheten möjliggjorde dold exfiltration av känslig information från användares konversationer. Upptäckten speglar en bredare utveckling där riskerna i AI-tjänster ökar i takt med att de används i allt mer verksamhetskritiska sammanhang.

Sårbarheten, som möjliggjorde omfattande dataläckage, åtgärdades av OpenAI i slutet av februari men pekar samtidigt på ett allvarligt underliggande problem. Trots inbyggda säkerhetsfunktioner kunde en enskild skadlig prompt förvandla en ChatGPT-session till en dold kanal för dataläckage. Informationen som exponerades omfattade inte bara användarens egna inmatningar, utan även AI-genererade sammanfattningar och slutsatser som ofta är minst lika känsliga.

Attacken utnyttjade en dold kommunikationsväg via DNS, vilket skapade möjligheten att kringgå synliga säkerhetsmekanismer. Funktionen kunde dessutom byggas in i anpassade GPT:er, vilket innebar att risken inte var begränsad till enstaka incidenter utan kunde skalas upp. Samma metod möjliggjorde även fjärrkörning av kod i ChatGPT:s exekveringsmiljö.

Detta understryker ett skifte i hur AI bör betraktas. Plattformarna är inte längre enbart applikationer, utan kompletta exekveringsmiljöer som kräver samma säkerhetstänk som molntjänster och IT-infrastruktur. Att enbart förlita sig på leverantörens inbyggda skydd är inte tillräckligt. För organisationer, särskilt inom offentlig sektor, finans och hälso- och sjukvård, kan en incident via ett AI-verktyg snabbt få regulatoriska konsekvenser, exempelvis kopplat till GDPR.

– Många organisationer har implementerat AI i snabbare takt än de har hunnit anpassa sitt säkerhetsarbete, säger Oskar Rödin, säkerhetsexpert på Check Point Software. Det skapar ett glapp där känslig information exponeras utan att någon riktigt har överblick. AI måste hanteras som en del av den kritiska infrastrukturen, inte som ett sidoverktyg.

I samband med incidenten framhåller cybersäkerhetsföretaget att upptäckten är en tydlig väckarklocka. Säkerhetsåtgärder behöver utvecklas i takt med AI, med kontinuerlig granskning, oberoende validering och ett tydligt ansvar för hur data hanteras genom hela AI-kedjan.

Källa: Check Point