deepfake stemfraude 7 18
 Iemands stem klonen is gemakkelijker dan ooit. D-Keine/iStock via Getty Images

Je bent net thuisgekomen na een lange dag werken en staat op het punt om te gaan eten als plotseling je telefoon begint te zoemen. Aan de andere kant staat een geliefde, misschien een ouder, een kind of een jeugdvriend, die je smeekt om hen onmiddellijk geld te sturen.

Je stelt ze vragen en probeert ze te begrijpen. Er is iets mis met hun antwoorden, die ofwel vaag of niet karakteristiek zijn, en soms is er een merkwaardige vertraging, bijna alsof ze een beetje te langzaam dachten. Toch weet je zeker dat het zeker je geliefde is die spreekt: dat is hun stem die je hoort, en de beller-ID toont hun nummer. Door de vreemdheid van hun paniek te onderstrepen, stuurt u plichtsgetrouw het geld naar de bankrekening die zij u verstrekken.

De volgende dag bel je ze terug om te vragen of alles in orde is. Je geliefde heeft geen idee waar je het over hebt. Dat komt omdat ze je nooit hebben gebeld – je bent bedrogen door technologie: een voice deepfake. Duizenden mensen waren op deze manier opgelicht in 2022.

De mogelijkheid om de stem van een persoon te klonen komt steeds meer binnen het bereik van iedereen met een computer.


innerlijk abonneren grafisch


 

As computer beveiliging onderzoekers, zien we dat de voortdurende vooruitgang op het gebied van algoritmen voor diep leren, audiobewerking en -engineering en het genereren van synthetische stemmen ertoe heeft geleid dat het steeds beter mogelijk is om de stem van een persoon overtuigend simuleren.

Erger nog, chatbots zoals ChatGPT beginnen realistische scripts te genereren met adaptieve real-time reacties. Door combineren van deze technologieën met spraakgeneratiegaat een deepfake van een statische opname naar een live, levensechte avatar die overtuigend een telefoongesprek kan voeren.

Een stem klonen

Het maken van een boeiende deepfake van hoge kwaliteit, of het nu gaat om video of audio, is niet het gemakkelijkste om te doen. Het vereist een schat aan artistieke en technische vaardigheden, krachtige hardware en een vrij forse sample van de doelstem.

Er wordt een groeiend aantal diensten aangeboden stemklonen van matige tot hoge kwaliteit produceren tegen een vergoeding, en sommige voice deepfake-tools hebben een voorbeeld nodig van slechts een minuut lang, of zelfs slechts een paar seconden, om een ​​stemkloon te produceren die overtuigend genoeg zou kunnen zijn om iemand voor de gek te houden. Om een ​​geliefde te overtuigen – bijvoorbeeld om te gebruiken bij een imitatiezwendel – is waarschijnlijk een aanzienlijk grotere steekproef nodig.

Onderzoekers zijn erin geslaagd stemmen te klonen met slechts vijf seconden opnametijd.

 

Bescherming tegen oplichting en desinformatie

Dat gezegd hebbende, wij bij de DeFake-project van het Rochester Institute of Technology, de University of Mississippi en de Michigan State University, en andere onderzoekers werken er hard aan om video- en audio-deepfakes te kunnen detecteren en de schade die ze veroorzaken te beperken. Er zijn ook eenvoudige en alledaagse acties die u kunt ondernemen om uzelf te beschermen.

Om te beginnen, stem phishing, of "vishing", zoals hierboven beschreven, zijn de meest waarschijnlijke stemdeepfakes die u in het dagelijks leven kunt tegenkomen, zowel op het werk als thuis. In 2019, een energiebedrijf werd opgelicht voor 243,000 dollar toen criminelen de stem van de baas van het moederbedrijf simuleerden om een ​​werknemer te bevelen geld over te maken naar een leverancier. In 2022 waren mensen dat opgelicht voor naar schatting $ 11 miljoen door gesimuleerde stemmen, ook van nauwe, persoonlijke connecties.

Wat kunt u doen?

Houd rekening met onverwachte telefoontjes, zelfs van mensen die u goed kent. Dit wil niet zeggen dat je elk gesprek moet plannen, maar het helpt om op zijn minst een e-mail of sms te sturen. Vertrouw ook niet op nummerherkenning, aangezien dat kan ook vervalst worden. Als u bijvoorbeeld wordt gebeld door iemand die beweert uw bank te vertegenwoordigen, hangt u op en belt u rechtstreeks naar de bank om de legitimiteit van het gesprek te bevestigen. Zorg ervoor dat u het nummer gebruikt dat u heeft opgeschreven, opgeslagen in uw contactenlijst of dat u op Google kunt vinden.

Wees bovendien voorzichtig met uw persoonlijk identificeerbare informatie, zoals uw sofinummer, huisadres, geboortedatum, telefoonnummer, middelste naam en zelfs de namen van uw kinderen en huisdieren. Oplichters kunnen deze informatie gebruiken om zich voor te doen als u bij banken, makelaars en anderen, zichzelf te verrijken terwijl ze u bankroet maken of uw krediet vernietigen.

Hier is nog een advies: ken jezelf. Ken met name uw intellectuele en emotionele vooroordelen en kwetsbaarheden. Dit is over het algemeen een goed levensadvies, maar het is essentieel om jezelf te beschermen tegen manipulatie. Oplichters proberen doorgaans uw financiële zorgen, uw politieke voorkeuren of andere neigingen, wat die ook mogen zijn, uit te zoeken en vervolgens uit te buiten.

Deze alertheid is ook een behoorlijke verdediging tegen desinformatie met voice deepfakes. Deepfakes kunnen worden gebruikt om te profiteren van uw voorkeur voor bevestiging, of wat u geneigd bent te geloven over iemand.

Als u een belangrijk persoon, of het nu uit uw gemeenschap of de overheid is, iets hoort zeggen dat ofwel erg ongebruikelijk voor hen lijkt of uw ergste vermoedens van hen bevestigt, is het verstandig om op uw hoede te zijn.The Conversation

Over de Auteurs

Matthew Wright, hoogleraar computerbeveiliging, Rochester Institute of Technology en Christoffel Schwartz, postdoctoraal onderzoeksmedewerker computerbeveiliging, Rochester Institute of Technology

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.