Waarom technologie de mensenrechten in gevaar brengt

Waarom technologie de mensenrechten in gevaar brengt
Spainter_vfx / Shutterstock.com

Films zoals 2001: A Space Odyssey, Blade Runner en Terminator bracht malafide robots en computersystemen naar onze bioscoopschermen. Maar tegenwoordig lijkt zo'n klassieke science fiction-bril niet zo ver weg van de werkelijkheid.

Steeds vaker leven, werken en spelen we met computationele technologieën die autonoom en intelligent zijn. Deze systemen omvatten software en hardware met de capaciteit voor onafhankelijk redeneren en het nemen van beslissingen. Ze werken voor ons op de werkvloer; ze beslissen of we een hypotheek kunnen krijgen; ze volgen en meten onze activiteits- en fitnessniveaus; ze maken onze vloeren in de woonkamer schoon en knippen onze gazons.

Autonome en intelligente systemen kunnen bijna elk aspect van ons sociale, economische, politieke en privéleven beïnvloeden, inclusief dagelijkse alledaagse aspecten. Veel van dit lijkt onschuldig, maar er is reden tot bezorgdheid. Computationele technologieën hebben invloed op elk mensenrecht, van het recht op leven tot het recht op privacy, vrijheid van meningsuiting en sociale en economische rechten. Dus hoe kunnen we de mensenrechten verdedigen in een technologisch landschap dat steeds meer wordt gevormd door robotica en kunstmatige intelligentie (AI)?

AI en mensenrechten

Ten eerste is er een reële angst dat verhoogde machineautonomie de status van mensen zal ondermijnen. Deze vrees wordt nog verergerd door een gebrek aan duidelijkheid over de vraag wie, in juridische of morele zin, ter verantwoording wordt geroepen wanneer intelligente machines schade toebrengen. Maar ik ben er niet zeker van dat de focus van onze zorg voor mensenrechten echt moet liggen valse robots, zoals het op dit moment lijkt. Integendeel, we moeten ons zorgen maken over het menselijke gebruik van robots en kunstmatige intelligentie en hun inzet in onrechtvaardige en ongelijke politieke, militaire, economische en sociale contexten.

Deze zorg is met name relevant met betrekking tot dodelijke autonome wapensystemen (LAWS), vaak beschreven als killer-robots. Zoals wij op weg naar een AI-wapenwedloop, mensenrechtengeleerden en campagnevoerders zoals Christof Heyns, de voormalige speciale rapporteur van de VN voor buitengerechtelijke, samenvattingen of willekeurige executies, vrezen dat het gebruik van LAWS autonome robotsystemen zal zijn verantwoordelijk voor beslissingen over leven en dood, met beperkte of geen menselijke controle.

Ook zorgt AI voor een revolutie in de koppeling tussen oorlogvoering en surveillance. Groepen zoals de Internationaal comité voor robotbestrijding (ICRAC) hebben recentelijk hun verzet tegen de deelname van Google aan Project Maven, een militair programma dat machinaal leren gebruikt om bewakingsbeelden van drones te analyseren, die kunnen worden gebruikt voor buitengerechtelijke executies. ICRAC beroep bij Google om ervoor te zorgen dat de gegevens die het verzamelt over zijn gebruikers nooit voor militaire doeleinden worden gebruikt en deelnemen aan protesten van Google-medewerkers over de betrokkenheid van het bedrijf bij het project. Google heeft onlangs aangekondigd dat het zal niet vernieuwen zijn contract.

In 2013 werd de mate van surveillance door de Edward Snowden benadrukt openbaringen. Deze hebben ons veel geleerd over de bedreiging van het recht op privacy en het delen van gegevens tussen inlichtingendiensten, overheidsinstanties en particuliere bedrijven. De recente controverse rondom Cambridge AnalyticaHet oogsten van persoonlijke gegevens via het gebruik van sociale mediaplatforms zoals Facebook blijft ernstige bezorgdheid veroorzaken, deze keer over manipulatie en bemoeienis met democratische verkiezingen die het recht op vrijheid van meningsuiting schaden.

Ondertussen dagen kritische data-analisten uit discriminerende praktijken geassocieerd met wat zij AI's 'white guy-probleem' noemen. Dit is de zorg dat AI-systemen die getraind zijn in bestaande gegevens, repliceren van bestaande raciale en genderstereotypen die discriminerende praktijken bestendigen op gebieden zoals politiewerk, rechterlijke beslissingen of werk.

AI kan stereotypen repliceren en verankeren.
AI kan stereotypen repliceren en verankeren.
Ollyy / Shutterstock.com

Dubbelzinnige bots

De mogelijke dreiging van computationele technologieën voor mensenrechten en voor fysieke, politieke en digitale veiligheid werd benadrukt in een recent gepubliceerde studie over Het kwaadaardige gebruik van kunstmatige intelligentie. De bezorgdheid uitgedrukt in dit rapport van de University of Cambridge moet serieus worden genomen. Maar hoe moeten we omgaan met deze bedreigingen? Zijn mensenrechten klaar voor het tijdperk van robotica en AI?

Er zijn voortdurende inspanningen om bestaande mensenrechtenbeginselen voor dit tijdperk bij te werken. Deze omvatten de VN-raamwerk en leidende beginselen voor het bedrijfsleven en mensenrechten, probeert een te schrijven Magna Carta voor het digitale tijdperk en de toekomst van het Life Institute Asilomar AI-beginselen, die richtlijnen identificeren voor ethisch onderzoek, het naleven van waarden en een commitment aan de langetermijn gunstige ontwikkeling van AI.

Deze inspanningen zijn lovenswaardig maar niet voldoende. Overheden en overheidsinstanties, politieke partijen en private ondernemingen, met name de leidende technologiebedrijven, moeten zich verbinden tot het ethisch gebruik van AI. We hebben ook behoefte aan effectieve en afdwingbare wettelijke controle.

Welke nieuwe maatregelen we ook introduceren, het is belangrijk om te erkennen dat ons leven steeds meer verweven raakt met autonome machines en intelligente systemen. Deze verstrengeling verbetert het welzijn van de mens in gebieden zoals medisch onderzoek en behandeling, in ons transportsysteem, in instellingen voor sociale zorg en in inspanningen om het milieu te beschermen.

Maar in andere gebieden brengt deze verstrengeling verontrustende vooruitzichten met zich mee. Computationele technologieën worden gebruikt om onze acties en gedragingen te volgen en te volgen, onze stappen te volgen, onze locatie, onze gezondheid, onze smaak en onze vriendschappen. Deze systemen vormen het menselijk gedrag en zetten ons aan tot praktijken van zelfcontrole die onze vrijheid inperken en de ideeën en idealen van mensenrechten ondermijnen.

The ConversationEn hierin ligt de crux: de capaciteit voor dubbel gebruik van computationele technologieën vervaagt de grens tussen weldadige en kwaadwillende praktijken. Bovendien zijn computationele technologieën sterk betrokken bij de ongelijke machtsverhoudingen tussen individuele burgers, de staat en zijn instanties, en particuliere bedrijven. Als ze zich losmaken van effectieve nationale en internationale systemen van checks and balances, vormen ze een reële en verontrustende bedreiging voor onze mensenrechten.

Over de auteur

Birgit Schippers, Visiting Research Fellow, senator George J Mitchell Instituut voor wereldwijde vrede, veiligheid en rechtvaardigheid, Queen's University Belfast

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Verwante Boeken

{amazonWS: searchindex = Books; Birgit Schippers = innerlijk; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

Ontvang de nieuwste via e-mail

{Emailcloak = off}