Så gör AI cyberhoten ännu svårare att avslöja
AI, Artificiell intelligens, kan vara ett av vår tids viktigaste tekniska framsteg. Som all ny digital teknik får dock AI konsekvenser för integritet och cybersäkerhet. Hur kommer digitala faror som nätfiske, telefonbedrägerier och deepfakes att påverlas av den nya tekniken?
Foto: F-Secure.
Seriösa aktörer som OpenAI och Google sätter regelverk och bygger in begränsningar för att minska risken att deras AI-modeller missbrukas. Ändå kan vi räkna med att kriminella hittar sätt att kringgå sådana säkerhetsåtgärder.
– Cyberbrottslingarna kommer att utnyttja AI på samma sätt som de utnyttjat webb, mejl, mobiler och sociala medier, det vill säga på alla sätt de kan, säger Laura Kankaala, Threat Intelligence Lead på säkerhetsföretaget F-Secure.
– Som med all banbrytande ny teknik finns det risk för missbruk, oetisk användning och både miljömässig och samhällelig påverkan.
Samma teknik som kan innebära radikala förändringar för hela branscher kommer också att ge brottslingarna nya möjligheter till bedrägerier, skadlig kod och andra hot. Om du inte redan fått påhälsning av en AI-trimmad angripare i din mejl eller dina sociala flöden så är det bara en tidsfråga.
AI och nätfiske
Sommaren 2023 upptäcktes AI-modellen WormGPT i ett nätforum med kopplingar till cyberbrottslighet. Worm GPT kan producera meddelanden som kan användas i bedrägerier mot både företag och privatpersoner genom att stjäla data eller lura offren att ladda ner skadliga program.
Även utan skräddarsydda plattformar kan nätbedragarna använda generativa AI-modeller som välkända ChatGPT för att snabbt och effektivt komponera nätfiskemejl som verkar professionella. Chattbotarna undviker felstavningar och andra språkfel som tidigare ofta avslöjat falska mejl. Räkna med att nätfiskeattackerna blir mer sofistikerade och så småningom automatiserade, allt tack vare (eller på grund av) AI.
– Vi får räkna med automatiserade processer i flera steg där det första mejlet inte länkar till någon phishing-sajt eller kräver att du ska göra något, utan bara innehåller en trovärdig text som inleder en dialog. Och innan du vet ordet av är du fast, säger Laura Kankaala.
Så skyddar du dig mot AI-nätfiske
Eftersom AI-utvecklingen går så fort blir det viktigare än någonsin att skydda sina konton med starka lösenord och multifaktorautentisering. Och på samma sätt gäller det att skydda sina mobiler och datorer från skadlig kod.
– Om du inte redan har testat ChatGPT så gör det, råder Laura Kankaala. När du själv sett hur naturliga och övertygande samtal du redan nu kan ha med en AI så blir du mer försiktig när du pratar med okända personer på nätet. Den sortens medvetenhet kan vara ett skydd mot möjliga nätfiskeförsök.
AI och telefonbedrägerier
Hittills har bedrägeriförsök via telefon (så kallad vishing, voice phishing) oftast handlat om samtal från främlingar. AI förändrar spelplanen. Tänk dig att du får ett röstmeddelande från någon i familjen som ber dig att genast skicka pengar på grund av en oförutsedd händelse eller olycka. Du känner igen personens röst och agerar så fort du kan. Men – rösten kan vara fejkad med hjälp av AI. Kan du avslöja bluffen innan pengarna är på väg?
– Den här sortens attacker kan bli mycket vanligare i takt med att generativ AI blir allt mer allmänt tillgänglig och kräver ännu färre röstprover för att klona någons röst, säger Laura Kankaala.
Så skyddar du dig mot AI-vishing
Det bästa skyddet är att helt enkelt vara misstänksam i alla lägen – även när det gäller samtal från nära och kära. Om en vän eller familjemedlem ringer upp och vill ha pengar akut, tänk efter innan du gör något. Kom ihåg att så gott som allt inklusive en persons röst och mobilnummer kan fejkas. Lägg på och ring upp personen direkt istället. Kanske råkar du väcka någon mitt i natten, men det är ett lindrigt pris för att avstyra ett bedrägeriförsök.
– Se upp för oväntade eller ovanliga önskemål om pengar, säger Laura Kankaala. Presentkort och kryptovalutor är populära metoder eftersom de gör betalningar svåra eller omöjliga att spåra.
AI och deepfakes
Med tillräcklig datorkraft kan en bedragare skapa realistiska videor som lägger in en persons ansikte på någon annans kropp i vilken situation som helst. Den här typen av falska filmer kallas för deepfakes och är ett tillräckligt stort hot för att göra FBI oroliga. Tekniken har lett till en ökning av trakasserier i form av falska sexvideor och liknande.
Användningsområdena för deepfake-videor spänner från bedrägeri och utpressning till politisk manipulation. Vi har till exempel redan sett falska videor där Elon Musk och andra kända personer tycks tala sig varma för investeringar i kryptovalutor. Utvecklingen inom AI betyder att antalet bluffar sannolikt kommer att öka och bli svårare att genomskåda.
Så skyddar du dig mot deepfakes
Att skydda sig mot deepfakes är en utmaning. FBI rekommenderar bland annat att man håller koll på barnens och sina egna sociala medier, ser över integritetsinställningarna och att man är mycket restriktiv med att dela bilder, videor och annan personlig information online.
Laura Kankaala håller med, men menar samtidigt att det är svårt att tillämpa helt och hållet. Nätet är numera en central del av vardagen och det är inte riktigt realistiskt att till exempel använda en dejtingapp utan att dela en bild av sig själv. Att helt stoppa deepfakes är svårt om inte omöjligt. Vad vi kan göra är att vara medvetna om riskerna.
– Det närmaste vi kommer en lösning är att inte ge efter för cyberbrottslingarnas krav och att anmäla incidenter till polisen. Brottslingarna angriper många människor samtidigt och har sannolikt inte tid att faktiskt verkställa sina hot om att skicka fejkade bilder till dina närmaste, avslutar Laura Kankaala.