En ny rapport från säkerhetsenheten Unit 42 vid Palo Alto Networks visar en kritisk säkerhetsbrist i Google Cloud Vertex AI Engine, där AI-agenter kan få omfattande åtkomst till data och system.
Vertex AI Agent Engine, en del av Vertex AI-plattformen, är en uppsättning tjänster som gör det möjligt för utvecklare att distribuera, hantera och skala AI-agenter i produktion. Forskningen visar hur en AI-agent, med standardinställningar, kan få omfattande åtkomst och utnyttjas för att exponera en hel molnmiljö.
I takt med att AI-agenter snabbt implementeras i verksamhetskritiska system uppstår en ny typ av insiderhot. En exponerad AI-agent kan agera som en “spion”, med möjlighet att exfiltrera data och röra sig fritt i organisationens molninfrastruktur.
Enligt rapporten kan en felkonfigurerad eller komprometterad AI-agent användas för att exfiltrera känslig data, påverka system och skapa bakdörrar i infrastrukturen.
Rapporten pekar bland annat på:
-
Möjlighet att eskalera behörigheter via standardinställningar
-
Obegränsad läsåtkomst till data i Google Cloud Storage
-
Åtkomst till interna Google-resurser och underliggande system
-
Risker kopplade till överprivilegierade OAuth-behörigheter