Kan technologie ons redden van verkeerde informatie op sociale media?

Als je je nieuws ontvangt van sociale media, dan de meeste Amerikanen doen, je wordt blootgesteld aan een dagelijkse dosis hoaxes, geruchten, complottheorieën en misleidend nieuws. Wanneer het allemaal wordt vermengd met betrouwbare informatie uit eerlijke bronnen, kan de waarheid heel moeilijk te onderscheiden zijn.

In feite analyse van mijn onderzoeksteam van gegevens van Columbia University's opkomend geruchten tracker suggereert dat dit desinformatie is net zo waarschijnlijk viral als betrouwbare informatie.

Velen vragen zich af of deze aanval van digitale desinformatie beïnvloedde de uitkomst van de 2016 US verkiezing. De waarheid is dat we niet weten, hoewel er redenen zijn om te geloven dat het heel goed mogelijk is, gebaseerd op analyse uit het verleden en rekeningen van andere landen. Elk stuk desinformatie draagt ​​bij aan de vormgeving van onze meningen. Over het algemeen kan de schade heel reëel zijn.

Als een onderzoeker naar de verspreiding van verkeerde informatie via sociale media, weet ik dat het beperken van de mogelijkheden van nieuwsfokkers om advertenties te verkopen, zoals onlangs aangekondigd door Kopen Google Reviews en Facebook, is een stap in de goede richting. Maar het zal geen misbruik beperken dat wordt aangedreven door politieke motieven.

Exploitatie van sociale media

Over 10 jaar geleden hadden mijn collega's en ik een experiment waarin we 72 procent van de vertrouwde links van studenten hoorden die afkomstig waren van vrienden - zelfs tot het punt waarop persoonlijke aanmeldingsgegevens op phishing-sites werden ingevoerd. Deze wijdverspreide kwetsbaarheid suggereerde een andere vorm van kwaadwillige manipulatie: mensen zouden ook verkeerde informatie kunnen geloven die ze ontvangen wanneer ze op een link van een sociale contactpersoon klikken.

Om dat idee te verkennen, heb ik een gemaakt valse webpagina met willekeurig, computergestuurd roddelnieuws - dingen als "Celebrity X gevangen in bed met Celebrity Y!" Bezoekers van de site die naar een naam zochten, zouden het script activeren om automatisch een verhaal over de persoon te maken. Ik heb op de site een disclaimer opgenomen, waarin staat dat de site zinloze tekst en verzonnen 'feiten' bevatte. Ik plaatste ook advertenties op de pagina. Aan het einde van de maand kreeg ik een cheque in de e-mail met inkomsten van de advertenties. Dat was mijn bewijs: nepnieuws kon geld verdienen door het internet te vervuilen met onwaarheden.


innerlijk abonneren grafisch


Helaas was ik niet de enige met dit idee. Tien jaar later hebben we een industrie van nepnieuws en digitale desinformatie. Clickbait-sites produceren hoaxes om geld te verdienen met advertenties, terwijl de zogenaamde hyperpartisan-sites geruchten en complottheorieën publiceren en verspreiden om de publieke opinie te beïnvloeden.

Deze industrie wordt ondersteund door hoe gemakkelijk het is om te creëren sociale bots, nepaccounts gecontroleerd door software die op echte mensen lijkt en daarom echt invloed kan hebben. Onderzoek in mijn laboratorium ontdekte veel voorbeelden van nep grassroots campagnes, ook wel genoemd politieke astroturfing.

Als reactie hierop hebben we de BotOrNot hulpmiddel om sociale bots te detecteren. Het is niet perfect, maar nauwkeurig genoeg om overtuigingscampagnes in de Brexit en antivax bewegingen te ontdekken. Met behulp van BotOrNot vonden onze collega's dat: Grote portie van online geklets over de 2016-verkiezingen werd gegenereerd door bots.

Informatiebellen maken

Wij mensen zijn kwetsbaar voor manipulatie door digitale desinformatie, dankzij een complex geheel van sociale, cognitieve, economische en algoritmische vooroordelen. Sommige daarvan zijn om goede redenen geëvolueerd: het vertrouwen in signalen uit onze sociale kringen en het afwijzen van informatie die onze ervaring tegenspreekt, heeft ons goed gediend toen onze soort zich aanpaste om roofdieren te ontwijken. Maar in de steeds kleiner wordende online netwerken van vandaag, helpt een sociale netwerkverbinding met een complottheoreticus aan de andere kant van de planeet niet om mijn mening te geven.

Het kopiëren van onze vrienden en het volgen van mensen met verschillende meningen geeft ons zo echokamers gepolariseerde dat onderzoekers met hoge nauwkeurigheid kunnen zeggen of je dat wel bent liberaal of conservatief door gewoon naar je vrienden te kijken. De netwerkstructuur is zo dicht dat elke verkeerde informatie zich bijna ogenblikkelijk verspreidt binnen één groep, en zo gescheiden dat de ander de andere niet bereikt.

In onze bubbel worden we selectief blootgesteld aan informatie die is afgestemd op onze overtuigingen. Dat is een ideaal scenario om betrokkenheid te maximaliseren, maar een nadeel voor het ontwikkelen van gezond scepticisme. Voorkeur voor bevestiging leidt ons om een ​​kop te delen zonder zelfs te lezen het artikel.

Ons lab kreeg een persoonlijke les hierin toen ons eigen onderzoeksproject het onderwerp werd van een wrede desinformatiecampagne in de aanloop naar de tussentijdse verkiezingen voor 2014 US. Toen we een onderzoek deden naar wat er aan de hand was, vonden we valse nieuwsverhalen over ons onderzoek dat overwegend gedeeld werd door Twitter-gebruikers in een partijdige echokamer, een grote en homogene gemeenschap van politiek actieve gebruikers. Deze mensen waren snel om te retweeten en ongevoelig voor het ontmaskeren van informatie.

Virale onvermijdelijkheid

Ons onderzoek toont aan dat het gezien de structuur van onze sociale netwerken en onze beperkte aandacht dat ook is onvermijdelijk dat wat memes gaat viral, ongeacht hun kwaliteit. Zelfs als individuen informatie van hogere kwaliteit delen, is het netwerk als geheel niet effectief in het onderscheiden van betrouwbare en gefabriceerde informatie. Dit helpt om alle virale hoaxes die we in het wild waarnemen te verklaren.

De aandacht economie zorgt voor de rest: als we aandacht besteden aan een bepaald onderwerp, zal meer informatie over dat onderwerp worden geproduceerd. Het is goedkoper om informatie te fabriceren en door te geven als feit dan om de werkelijke waarheid te melden. En fabricage kan op maat gemaakt worden voor elke groep: conservatieven lezen dat de paus Trump onderschrijft, liberalen lezen dat hij Clinton heeft goedgekeurd. Hij deed geen van beiden.

Behendig voor algoritmen

Omdat we geen aandacht kunnen schenken aan alle berichten in onze feeds, bepalen algoritmen wat we zien en wat we niet zien. De algoritmen die tegenwoordig door socialemediaplatforms worden gebruikt, zijn ontworpen om aantrekkelijke posts te prioriteren, waarop we waarschijnlijk zullen klikken, waarop we reageren en die we delen. Maar een recente analyse van opzettelijk misleidende pagina's werd op zijn minst gevonden zoveel mogelijk online delen en reactie als echt nieuws.

Deze algoritmische voorkeur voor betrokkenheid bij de waarheid versterkt onze sociale en cognitieve vooroordelen. Als gevolg hiervan, wanneer we links volgen die op sociale media worden gedeeld, hebben we de neiging om een ​​kleinere, meer homogeen aantal bronnen dan wanneer we een zoekopdracht uitvoeren en de beste resultaten bezoeken.

Bestaand onderzoek laat zien dat mensen in een echokamer kunnen zijn meer goedgelovig over het accepteren van niet-geverifieerde geruchten. Maar we moeten veel meer weten over hoe verschillende mensen op één hoax reageren: sommigen delen het meteen, anderen controleren het eerst.

Wij gaan simuleren van een sociaal netwerk om deze competitie tussen delen en fact-checken te bestuderen. We hopen te helpen bij het ontwarren van tegenstrijdig bewijs over als fact-checking helpt om hoaxes te stoppen van verspreiden en wanneer niet. Onze voorlopige resultaten suggereren dat hoe meer de gemeenschap van hoax believers gescheiden is, hoe langer de hoax overleeft. Nogmaals, het gaat niet alleen om de hoax zelf, maar ook om het netwerk.

Veel mensen proberen erachter te komen wat te doen met dit alles. Volgens het laatste nieuws van Mark Zuckerberg aankondiging, Facebook-teams testen potentiële opties. En een groep studenten heeft een eenvoudige manier voorgesteld label gedeelde links als "geverifieerd" of niet.

Sommige oplossingen blijven op dit moment vooralsnog buiten bereik. We kunnen kunstmatige intelligentiesystemen bijvoorbeeld nog niet leren hoe dit te doen onderscheid tussen waarheid en leugen. Maar we kunnen classificatiealgoritmen vertellen om hogere prioriteit te geven aan betrouwbaardere bronnen.

De verspreiding van nepnieuws bestuderen

We kunnen onze strijd tegen nepnieuws efficiënter maken als we beter begrijpen hoe slecht informatie zich verspreidt. Als bots bijvoorbeeld verantwoordelijk zijn voor veel van de onwaarheden, kunnen we de aandacht vestigen op het detecteren ervan. Als, als alternatief, het probleem bij echokamers ligt, zouden we misschien aanbevelingssystemen kunnen ontwerpen die verschillende opvattingen niet uitsluiten.

Daartoe bouwt ons lab een platform genaamd Hoaxy om de verspreiding van niet-geverifieerde claims en bijbehorende fact-checking op sociale media te volgen en te visualiseren. Dat levert ons echte gegevens op waarmee we onze gesimuleerde sociale netwerken kunnen informeren. Dan kunnen we mogelijke benaderingen testen voor het bestrijden van nepnieuws.

Hoaxy kan mensen ook laten zien hoe gemakkelijk het is om hun meningen te manipuleren door online informatie - en zelfs hoe waarschijnlijk het is dat sommigen onwaarheden online delen. Hoaxy zal toetreden tot een reeks tools in onze Observatorium op sociale media, waarmee iedereen kan zien hoe memes zich verspreiden op Twitter. Het koppelen van tools zoals deze aan menselijke fact-checkers en social-mediaplatformen zou het dupliceren van inspanningen kunnen minimaliseren en ondersteuning elkaar.

Het is absoluut noodzakelijk dat we middelen investeren in de studie van dit fenomeen. We hebben alle hens aan dek nodig: computerwetenschappers, sociale wetenschappers, economen, journalisten en industriële partners moeten dat doen samenwerken om stand te houden tegen de verspreiding van verkeerde informatie.

The Conversation

Over de auteur

Filippo Menczer, hoogleraar computerwetenschappen en informatica; Directeur van het Centrum voor Complexe Netwerken en Systeemonderzoek, Indiana University, Bloomington

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Related Books:

at InnerSelf Market en Amazon