4 Manieren waarop uw zoekopdrachten op Google en sociale media uw kansen in het leven beïnvloeden
Shutterstock.

Of je je nu wel of niet realiseert of ermee instemt, big data kan je beïnvloeden en hoe je je leven leidt. De gegevens die we maken bij het gebruik van sociale media, surfen op het internet en fitnesstrackers worden allemaal verzameld, gecategoriseerd en gebruikt door bedrijven en de staat om profielen van ons te maken. Deze profielen worden vervolgens gebruikt om advertenties voor producten en services te targeten op de advertenties die het waarschijnlijkst zijn om ze te kopen, of om overheidsbeslissingen te informeren.

Big data stellen staten en bedrijven in staat om toegang te krijgen tot onze informatie en deze te combineren en te analyseren - maar incompleet en potentieel onnauwkeurig - profielen van ons leven. Ze doen dit door correlaties en patronen te identificeren in gegevens over ons en mensen met vergelijkbare profielen, om voorspellingen te doen over wat we zouden kunnen doen.

Maar alleen omdat big data-analyses gebaseerd zijn op algoritmen en statistieken, betekent dat niet dat ze dat zijn nauwkeurig, neutraal of inherent objectief. En hoewel big data inzichten kan verschaffen over groepsgedrag, zijn deze niet noodzakelijkerwijs een betrouwbare manier om individueel gedrag te bepalen. In feite kunnen deze methoden open de deur naar discriminatie en de mensenrechten van mensen bedreigen - ze zouden zelfs tegen je kunnen werken. Hier zijn vier voorbeelden waarin big data-analyse kan leiden tot onrecht.

1. Het berekenen van credit scores

Big data kunnen worden gebruikt om beslissingen over te nemen kredietwaardigheid, van invloed op of u een hypotheek krijgt, of hoe hoog uw autoverzekering premies zouden moeten zijn. Deze beslissingen kunnen worden geïnformeerd door uw sociale media berichten en gegevens van andere apps die worden gebruikt om uw risiconiveau of betrouwbaarheid aan te geven.

Maar gegevens zoals uw opleiding of uw woonomgeving zijn mogelijk niet relevant of betrouwbaar voor dergelijke beoordelingen. Dit soort gegevens kan fungeren als een proxy voor ras of sociaaleconomische status en het gebruik ervan om beslissingen te nemen over kredietrisico kan leiden tot discriminatie.


innerlijk abonneren grafisch


2. Taken zoeken

Big data kunnen worden gebruikt om te bepalen wie een vacature ziet of een shortlist krijgt voor een interview. Jobadvertenties kunnen gericht zijn op bepaalde leeftijdsgroepen, zoals 25 tot 36-jarigen, wat jonge en oudere werknemers uitsluit van zelfs het zien van bepaalde vacatures en het risico van leeftijdsdiscriminatie.

Automatisering wordt ook gebruikt om kandidaten efficiënter te filteren, sorteren en rangschikken. Maar dit screeningproces kan mensen uitsluiten op basis van indicatoren zoals de afstand van hun woon-werkverkeer. Werkgevers kunnen veronderstellen dat mensen met een langere reis minder snel op lange termijn in een baan zullen blijven, maar dit kan feitelijk mensen discrimineren die verder van het stadscentrum wonen vanwege de locatie van betaalbare woningen.

3. Voorlopige en borgtochtbeslissingen

In de VS en het VK worden big data-risicobeoordelingsmodellen gebruikt om ambtenaren te helpen beslissen of mensen worden toegestaan vrijlating of borgtochtof waarnaar wordt verwezen revalidatieprogramma's. Ze kunnen ook worden gebruikt om te beoordelen hoeveel van een risico een overtreder voor de samenleving vertegenwoordigt, wat een factor is die een rechter kan overwegen bij het bepalen van de lengte van een zin.

Het is niet precies duidelijk welke gegevens worden gebruikt om deze beoordelingen te maken, maar als de stap naar digitale politie groeit in tempo, het is steeds waarschijnlijker dat deze programma's open source-informatie zoals sociale mediale activiteit - als ze dat nog niet doen.

Deze beoordelingen kijken misschien niet alleen naar het profiel van een persoon, maar ook hoe het zich verhoudt tot anderen. Sommige politiediensten hebben historisch overbezorgd bepaalde minderheidsgroepen, wat leidt tot een onevenredig groot aantal gemelde criminele incidenten. Als deze gegevens in een algoritme worden ingevoerd, verstoort het de risicobeoordelingsmodellen en leidt het tot discriminatie die direct van invloed is het recht van een persoon op vrijheid.

4. Visumaanvragen viseren

Vorig jaar kondigde het Amerikaanse Immigratie- en Douanehandhavingsbureau (ICE) aan dat het een geautomatiseerd systeem wilde invoeren "extreme visumcontrole"Programma. Het zou automatisch en continu sociale media-accounts scannen, om te beoordelen of aanvragers een "positieve bijdrage" zullen leveren aan de Verenigde Staten en of er nationale veiligheidskwesties kunnen ontstaan.

Naast het presenteren van risico's voor de vrijheid van gedachte, meningsuiting, meningsuiting en vereniging, waren er aanzienlijke risico's dat dit programma mensen van bepaalde nationaliteiten of religies zou discrimineren. commentatoren kenmerkte het als een "moslimverbod door algoritme".

Het programma is onlangs ingetrokken, naar verluidt op basis van het feit dat "er geen" kant-en-klare "software was die de kwaliteit van de controle kon leveren die het bureau wilde". Maar dergelijke doelen opnemen in aanbestedingsdocumenten kan slechte prikkels creëren voor de technische industrie om programma's te ontwikkelen die discriminerend zijn op basis van ontwerp.

The ConversationHet lijdt geen twijfel dat big data-analyse werkt op manieren die de kansen van mensen in het leven kunnen beïnvloeden. Maar de gebrek aan transparantie over hoe big data worden verzameld, gebruikt en gedeeld, maakt het moeilijk voor mensen om te weten welke informatie wordt gebruikt, hoe en wanneer. Big data-analyse is simpelweg te ingewikkeld voor individuen om hun gegevens te kunnen beschermen tegen ongepast gebruik. In plaats daarvan moeten staten en bedrijven regelgeving opstellen en naleven om ervoor te zorgen dat hun gebruik van big data niet tot discriminatie leidt.

Over de Auteurs

Lorna McGregor, directeur, mensenrechtencentrum, PI en co-directeur, ESRC mensenrechten, big data en technologie grote subsidie, Universiteit van Essex; Daragh Murray, docent internationaal mensenrechtenrecht aan de Essex Law School, Universiteit van Essex, en Vivian Ng, Senior Researcher in Human Rights, Universiteit van Essex

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Boeken van deze

Over de auteur

at