Hoe onderzoekers zich voorbereiden op de komende golf van neppropaganda

Hoe onderzoekers zich voorbereiden op de komende golf van neppropaganda
AI-aangestuurde detectoren zijn de beste tools om AI-gegenereerde nepvideo's op te sporen.
The Washington Post via Getty Images

Een onderzoeksjournalist ontvangt een video van een anonieme klokkenluider. Het toont een kandidaat voor president die toegeeft aan illegale activiteiten. Maar is deze video echt? Als dat zo is, zou het enorm nieuws zijn - de primeur van je leven - en de komende verkiezingen volledig omkeren. Maar de journalist laat de video door een gespecialiseerde tool lopen, die haar vertelt dat de video niet is wat hij lijkt. In feite is het een "deepfake, ”Een video gemaakt met behulp van kunstmatige intelligentie met diepgaand leren.

Journalisten over de hele wereld zouden binnenkort zo'n tool kunnen gebruiken. Over een paar jaar zou een dergelijke tool zelfs door iedereen kunnen worden gebruikt om nepinhoud in hun feeds op sociale media te verwijderen.

As onderzoekers die deepfake-detectie hebben bestudeerd en het ontwikkelen van een tool voor journalisten, zien we een toekomst voor deze tools. Ze zullen echter niet al onze problemen oplossen en ze zullen slechts een deel zijn van het arsenaal in de bredere strijd tegen desinformatie.

Het probleem met deepfakes

De meeste mensen weten dat je niet alles kunt geloven wat je ziet. In de afgelopen decennia zijn slimme nieuwsconsumenten gewend geraakt aan het zien van afbeeldingen die zijn gemanipuleerd met fotobewerkingssoftware. Video's zijn echter een ander verhaal. Hollywood-regisseurs kunnen miljoenen dollars uitgeven aan speciale effecten om een ​​realistische scène te maken. Maar met behulp van deepfakes kunnen amateurs met een paar duizend dollar aan computerapparatuur en een paar weken te besteden iets bijna even levensecht maken.

Deepfakes maken het mogelijk om mensen in filmscènes te plaatsen waar ze nooit in waren - denk dat Tom Cruise Iron Man speelt - wat zorgt voor vermakelijke video's. Helaas maakt het het ook mogelijk om pornografie zonder toestemming van de afgebeelde mensen. Tot nu toe zijn die mensen, bijna alle vrouwen, de grootste slachtoffers wanneer deepfake-technologie wordt misbruikt.

Deepfakes kunnen ook worden gebruikt om video's te maken van politieke leiders die dingen zeggen die ze nooit hebben gezegd. De Belgische Socialistische Partij heeft een niet-nepvideo van lage kwaliteit uitgebracht van President Trump beledigt België, die genoeg reacties kreeg om de potentiële risico's van deepfakes van hogere kwaliteit te laten zien.


Hany Farid van de University of California, Berkeley, legt uit hoe deepfakes worden gemaakt.

 Haal het laatste uit InnerSelf


Misschien het engste van allemaal, kunnen ze worden gebruikt om twijfel over de inhoud van echte video's, door te suggereren dat ze deepfakes kunnen zijn.

Gezien deze risico's zou het buitengewoon waardevol zijn om deepfakes te kunnen detecteren en duidelijk te labelen. Dit zou ervoor zorgen dat nepvideo's het publiek niet voor de gek houden en dat echte video's als authentiek kunnen worden ontvangen.

Vervalsingen spotten

Deepfake-detectie als onderzoeksgebied was iets voorbij drie jaar geleden. Het vroege werk was gericht op het detecteren van zichtbare problemen in de video's, zoals deepfakes die niet knipperen. Na verloop van tijd echter de vervalsingen zijn beter geworden bij het nabootsen van echte video's en worden moeilijker te herkennen voor zowel mensen als detectietools.

Er zijn twee hoofdcategorieën van onderzoek naar diepe vervalsing. De eerste betreft kijken naar het gedrag van mensen in de video's. Stel dat je veel video's hebt van iemand die beroemd is, zoals president Obama. Kunstmatige intelligentie kan deze video gebruiken om zijn patronen te leren, van zijn handgebaren tot zijn spraakpauzes. Het kan dan bekijk een deepfake van hem en merk op waar het niet overeenkomt met die patronen. Deze benadering heeft het voordeel dat het mogelijk werkt, zelfs als de videokwaliteit zelf in wezen perfect is.


Aaron Lawson van SRI International beschrijft één benadering voor het detecteren van deepfakes.

Andere onderzoekers, inclusief ons team, zijn gericht op verschillen dat alle deepfakes hebben vergeleken met echte video's. Deepfake-video's worden vaak gemaakt door individueel gegenereerde frames samen te voegen tot video's. Hiermee rekening houdend, extraheren de methoden van ons team de essentiële gegevens van de gezichten in afzonderlijke frames van een video en volgen ze vervolgens via sets van gelijktijdige frames. Hierdoor kunnen we inconsistenties detecteren in de informatiestroom van het ene frame naar het andere. We gebruiken een vergelijkbare aanpak ook voor ons nep-audiodetectiesysteem.

Deze subtiele details zijn moeilijk te zien voor mensen, maar laten zien hoe niet helemaal nep zijn nog perfect. Detectoren zoals deze kunnen voor iedereen werken, niet slechts voor een paar wereldleiders. Uiteindelijk kan het zijn dat beide typen dieptepeilingsdetectoren nodig zijn.

Recente detectiesystemen presteren erg goed op video's die specifiek zijn verzameld voor het evalueren van de tools. Helaas doen zelfs de beste modellen dat slecht op video's die online worden gevonden. Het verbeteren van deze tools om ze robuuster en nuttiger te maken, is de belangrijkste volgende stap.

Voor wie is dieptedetectors bedoeld?

Idealiter zou een deepfake-verificatietool voor iedereen beschikbaar moeten zijn. Deze technologie bevindt zich echter nog in de beginfase van ontwikkeling. Onderzoekers moeten de tools verbeteren en ze beschermen tegen hackers voordat ze op grote schaal worden vrijgegeven.

Tegelijkertijd zijn de tools om deepfakes te maken beschikbaar voor iedereen die het publiek voor de gek wil houden. Aan de zijlijn zitten is geen optie. Voor ons team was de juiste balans om met journalisten samen te werken, omdat zij de eerste verdedigingslinie zijn tegen de verspreiding van verkeerde informatie.

Journalisten moeten de informatie verifiëren voordat ze verhalen publiceren. Ze hebben al beproefde methoden, zoals het controleren van bronnen en het vragen van meer dan één persoon om de belangrijkste feiten te verifiëren. Dus door de tool in hun handen te geven, geven we ze meer informatie, en we weten dat ze niet alleen op de technologie zullen vertrouwen, aangezien deze fouten kan maken.

Kunnen de detectoren de wapenwedloop winnen?

Het is bemoedigend om teams te zien Facebook en Microsoft investeren in technologie om deepfakes te begrijpen en te detecteren. Dit veld heeft meer onderzoek nodig om gelijke tred te houden met de snelheid van de vooruitgang in deepfake-technologie.

Journalisten en de sociale mediaplatforms moeten ook uitzoeken hoe ze mensen het beste kunnen waarschuwen voor deepfakes wanneer ze worden gedetecteerd. Onderzoek heeft dat aangetoond mensen herinneren zich de leugen, maar niet het feit dat het een leugen was. Geldt hetzelfde voor nepvideo's? Het simpelweg 'Deepfake' in de titel zetten is misschien niet genoeg om sommige soorten desinformatie tegen te gaan.

Deepfakes zijn er om te blijven. Het beheren van desinformatie en het beschermen van het publiek zal uitdagender dan ooit zijn, aangezien kunstmatige intelligentie krachtiger wordt. We maken deel uit van een groeiende onderzoeksgemeenschap die deze dreiging aanpakt, waarbij detectie slechts de eerste stap is.The Conversation

Over de auteurs

John Sohrawardi, doctoraatsstudent informatica en informatiewetenschappen, Rochester Institute of Technology en Matthew Wright, hoogleraar computerbeveiliging, Rochester Institute of Technology

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de origineel dit artikel.

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

 Ontvang de nieuwste via e-mail

{Emailcloak = off}

VAN DE REDACTIE

Waarom ik COVID-19 zou moeten negeren en waarom niet
by Robert Jennings, InnerSelf.com
Mijn vrouw Marie en ik zijn een gemengd stel. Ze is Canadees en ik ben een Amerikaan. De afgelopen 15 jaar hebben we onze winters in Florida en onze zomers in Nova Scotia doorgebracht.
InnerSelf Nieuwsbrief: november 15, 2020
by InnerSelf Staff
Deze week staan ​​we stil bij de vraag: "waar gaan we heen vanaf hier?" Net als bij elke overgangsrite, of het nu gaat om afstuderen, trouwen, geboorte van een kind, een cruciale verkiezing of het verlies (of vondst) van een ...
America: Hitching Our Wagon to the World and to the Stars
by Marie T Russell en Robert Jennings, InnerSelf.com
Welnu, de Amerikaanse presidentsverkiezingen liggen nu achter ons en het is tijd om de balans op te maken. We moeten een gemeenschappelijke basis vinden tussen jong en oud, democraat en republikeins, liberaal en conservatief om echt te maken ...
InnerSelf Nieuwsbrief: oktober 25, 2020
by InnerSelf Staff
De "slogan" of ondertitel voor de InnerSelf-website is "Nieuwe attitudes --- nieuwe mogelijkheden", en dat is precies het thema van de nieuwsbrief van deze week. Het doel van onze artikelen en auteurs is om ...
InnerSelf Nieuwsbrief: oktober 18, 2020
by InnerSelf Staff
Tegenwoordig leven we in mini-bubbels ... in onze eigen huizen, op het werk en in het openbaar, en mogelijk in onze eigen geest en met onze eigen emoties. Echter, leven in een luchtbel, of het gevoel hebben dat we zijn ...