Se upp för AI-bedrägeri

Du bör börja alla dina samtal med familj och vänner med ett särskilt kodordenord. Det är det enda säkra sättet att undvika den nya bluffen där du luras att tro att någon du känner är i trubbel

Även om du får ett telefonsamtal från en familjemedlem är det inte säkert att du pratar med den du tror att du är.

© Shutterstock

Deepfake-tekniken är både imponerande och väldigt skrämmande.

Det är tekniken som använder videoklipp och artificiell intelligens för att skapa falska videor där till exempel kändisar säger saker de aldrig sagt, som i denna virala video av Facebooks Mark Zuckerberg från 2019.

Men deepfake-tekniken används också av bedragare som utger sig för att vara personer de inte är och nu varnar FBI för att tekniken används på ett nytt och skrämmande sätt.

Bedragarna använder deepfake-teknik och artificiell intelligens för att efterlikna bekantas röster och lura dig över telefon.

Det innebär att du kan få ett samtal från någon som låter precis som din make, ditt barn eller en nära vän - men som i själva verket är en bedragare.

FBI varnar för att du bör vidta försiktighetsåtgärder mot denna typ av bedrägeri.

Deepfake-bedrägerier: När AI utger sig för att vara din familj

FBI har registrerat flera fall där människor har fått telefonsamtal från röster som lät exakt som en make, förälder eller vän som ber om ekonomisk hjälp i en nödsituation.

Till exempel lurades en 82-årig man i Sugar Land, Texas, på 17000 dollar när bedragare använde AI för att klona rösten från hans svärson, som påstods ha varit inblandad i en trafikolycka, och fick honom att föra över pengar.

I panik överförde mannen pengarna, men insåg senare att det var en bedragare som hade använt en AI-genererad röst för att lura honom.

##Hur AI-bedrägeriet fungerar

Det börjar med att bedragarna väljer ut ett offer och någon som de har en nära relation till, till exempel ett barn eller en make/maka. Bedragarna samlar sedan in videor av denna person, till exempel från sociala medier.

Med hjälp av deepfake-teknik och artificiell intelligens kan brottslingarna återskapa rösten från de insamlade videorna. De kan sedan få rösten att säga vad de vill.

Offret får sedan ett samtal från en röst som låter som en känd person och blir ombedd att föra över pengar eller dela med sig av känslig information.

Hur du skyddar dig mot bedrägerier från bekanta i knipa

Det finns flera saker du kan göra för att undvika att hamna i fällan och bli lurad, men FBI rekommenderar att du och din familj vidtar en viktig försiktighetsåtgärd: Skapa en hemlig kod som bara du känner till.

Med en unik kod kan du alltid verifiera vem du faktiskt pratar med.

Det kan vara en specifik fras eller sifferkombination som är svår för en bedragare att gissa sig till. Om du får ett misstänkt samtal kan du be personen att säga koden för att bekräfta identiteten.

Om de inte vet det är det troligen en bluff.

Anmäl till polisen om du blir lurad

Var också alltid skeptisk till känslosamma samtal. Bedragare spelar ofta på rädsla och panik.

Om någon ringer och påstår sig vara i fara, stanna upp och tänk efter. Ring upp personen på ett känt nummer för att verifiera berättelsen.

Om du utsätts för ett försök till deepfake-bedrägeri ska du anmäla det till polisen och berörda myndigheter, till exempel din bank om du har överfört pengar.

Deepfake-bedrägerier är ett växande problem

Enligt FBI är deepfake-bedrägerier ett växande problem och tekniken blir bara mer avancerad. Tidigare har bedragare främst använt e-post och textmeddelanden för nätfiske, men nu går de över till röstigenkänning och AI-manipulation.

En studie från University College London rankade tidigare deepfake-teknik som en av de farligaste formerna av cyberbrottslighet, eftersom den är svår att upptäcka och kan orsaka stor förvirring och ekonomisk förlust.

Och en nyare studie från samma institution har också visat att det är svårt för vanliga människor att känna igen falska röster.