Deepfakes och klonade röster hotar banker och företag

Sam Altman har föreslagit nya tekniska lösningar som ska kunna bevisa att en person verkligen är människa – bland annat det omdiskuterade projektet ”The Orb” från hans organisation Tools for Humanity. Foto: Wikipedia Common Lic. Kredit: Artem.G (diskussion | bidrag) laddade upp ett verk av Steve Jurvetson från https://www.flickr.com/photos/jurvetson/54446118165/
 med UploadWizard
Sam Altman har föreslagit nya tekniska lösningar som ska kunna bevisa att en person verkligen är människa – bland annat det omdiskuterade projektet ”The Orb” från hans organisation Tools for Humanity. Foto: Wikipedia Common Lic. Kredit: Artem.G (diskussion | bidrag) laddade upp ett verk av Steve Jurvetson från https://www.flickr.com/photos/jurvetson/54446118165/ med UploadWizard

Ett till synes vanligt videomöte på ett kontor i Hongkong slutade med en förlust på 25 miljoner dollar. En anställd lurades att föra över pengarna efter ett samtal med vad han trodde var företagets vd – men det visade sig vara en avancerad deepfake. Händelsen är ett av flera exempel på hur artificiell intelligens nu används för bedrägerier i en skala som oroar både banker, myndigheter och experter.

– Jag är mycket oroad över att vi står inför en betydande bedrägerikris, sade Sam Altman, vd för OpenAI, vid en konferens hos den amerikanska centralbanken Federal Reserve.

Han varnade för att artificiell intelligens redan har besegrat de flesta etablerade metoder för autentisering. – Särskilt röst och ansikte som säkerhetsfaktorer är i praktiken värdelösa. Den som fortfarande förlitar sig på dessa metoder agerar oansvarigt, tillade han.

Kraftig ökning av deepfakeattacker

Bedrägerier som bygger på röstkloning och manipulerade videor har ökat kraftigt de senaste åren. Enligt cybersäkerhetsföretaget Signicat har försök till deepfakebedrägerier inom finanssektorn ökat med över 2100 procent på tre år. De har nu blivit en av de tre vanligaste formerna av identitetsbedrägeri i Europa, ofta i kombination med kontokapningar eller avancerade phishingattacker.

I USA har bedrägeriförluster kopplade till imitationer av företagsledare redan överstigit 200 miljoner dollar under det första kvartalet 2025, rapporterar Wall Street Journal.

Banker i fara – deepfakebedrägerier ökar explosionsartat

Det är inte första gången tekniken används i stor skala. Redan 2019 lurades en brittisk energikoncern att föra över 220 000 euro, sedan en chef blivit uppringd av en röst som lät exakt som moderbolagets vd – en röst som visade sig vara genererad med artificiell intelligens.

Nya risker för finanssystemet

Flera centralbanker och internationella organisationer varnar nu för att utvecklingen kan bli ett hot mot stabiliteten i det globala finanssystemet. Bank of England har uttryckt oro för att artificiell intelligens kan leda till kollektiva felbeslut på finansmarknaderna och därmed skapa systemrisker. Internationella valutafonden (IMF) pekar på att banker och försäkringsbolag riskerar att bli särskilt sårbara om tekniken fortsätter att utvecklas utan tydlig reglering.

En studie från Cornell University beräknar att de globala förlusterna från KI-drivna bedrägerier kan fyrdubblas fram till 2027. Banker, försäkringsbolag och handelsplattformar som är beroende av snabba och säkra identitetskontroller pekas ut som särskilt utsatta.

Experter beskriver hoten som ”synthetic threats” – risker som enbart existerar på grund av artificiell intelligens. De föreslår nya skyddsmekanismer som bygger på beteendemönster snarare än på statiska faktorer som lösenord eller ansiktsigenkänning.

Reglering mellan skydd och byråkrati

Samtidigt pågår en intensiv debatt i EU om hur tekniken ska regleras. Den tyska bankföreningen Deutsche Kreditwirtschaft (DK) varnar för ett ”certifieringsdjurpark” där för många överlappande regler riskerar att hämma innovation.

Organisationen menar att certifieringskrav bör reserveras för särskilt kritiska tjänster som molnlösningar och avancerade KI-system. Om alla digitala tjänster omfattas kan europeiska banker snarare försvagas av byråkrati än av själva bedrägerierna. DK föreslår också enhetliga rapporteringsregler för att undvika dubbelarbete.

Samtidigt driver Kina på för ett internationellt samarbete kring KI-reglering. På global nivå har frågan om artificiell intelligens seglat upp som en av de mest akuta politiska och ekonomiska utmaningarna.

Förlorat förtroende kan bli det största hotet

För företag lockar KI med möjligheter att effektivisera processer och minska kostnader. Automatiserad kundtjänst, prediktiv analys och smarta handelsalgoritmer används redan i stor skala. Men samma teknik som lovar effektivitet riskerar att undergräva själva grunden för finansiella transaktioner: tilliten.

När anställda inte längre kan skilja mellan en äkta order från vd och en förfalskad deepfake, hotas inte bara enskilda företag utan hela finanssektorns trovärdighet.

Sam Altman har föreslagit nya tekniska lösningar som ska kunna bevisa att en person verkligen är människa – bland annat det omdiskuterade projektet ”The Orb” från hans organisation Tools for Humanity. Tekniken bygger på biometrisk verifiering via ögonskanning, men har mött stark kritik eftersom den riskerar att ge ett fåtal företag för stort inflytande över digital identitet.

Att hitta en balans mellan skydd och fri innovation blir därmed en av de största uppgifterna för både lagstiftare och finanssektorn de kommande åren.

Källor: Manager Magazin, Wall Street Journal, Tagesschau, Cornell University, IMF