Hoe kan differentiële privacy uw gegevens beschermen?

Hoe kan differentiële privacy uw gegevens beschermen? Marco Verch / Flickr, CC BY

Technische bedrijven kunnen differentiële privacy gebruiken om verzamelde gegevens over gebruikersgewoonten te verzamelen en te delen, met behoud van individuele privacy.

Het is geen geheim dat grote technologiebedrijven zoals Facebook, Google, Apple en Amazon steeds meer infiltreren in onze persoonlijke en sociale interacties om dagelijks enorme hoeveelheden gegevens over ons te verzamelen. Tegelijkertijd maken privacyschendingen in cyberspace regelmatig nieuwspagina's.

Dus hoe moet privacy worden beschermd in een wereld waar gegevens worden verzameld en gedeeld met toenemende snelheid en vindingrijkheid?

Differentiële privacy is een nieuw model van cyberbeveiliging waarvan voorstanders beweren dat ze persoonlijke gegevens veel beter kunnen beschermen dan traditionele methoden.

De wiskunde waarop het is gebaseerd, is jaren geleden ontwikkeld door 10 en de methode is overgenomen door Apple en Google in de afgelopen jaren.

Wat is differentiële privacy?

Differentiële privacy maakt het voor technische bedrijven mogelijk om verzamelde informatie over gebruikersgewoonten te verzamelen en te delen, met behoud van de privacy van individuele gebruikers.

Stel dat u bijvoorbeeld de populairste routes wilt laten zien die mensen door een park lopen. Je volgt de routes van 100-mensen die regelmatig door het park lopen en of ze op het pad of door het gras lopen.

Maar in plaats van het delen van de specifieke mensen die elke route nemen, deelt u de verzamelde gegevens die in de loop van de tijd zijn verzameld. Mensen die uw resultaten bekijken, weten misschien dat 60 uit 100 mensen liever een kortere weg door het gras nemen, maar niet welke 60-mensen.

Waarom hebben we het nodig?

Veel van de regeringen in de wereld hebben een strikt beleid over hoe techbedrijven gebruikersgegevens verzamelen en delen. Bedrijven die zich niet aan de regels houden, kunnen hoge boetes krijgen. EEN De Belgische rechtbank heeft onlangs Facebook besteld om te stoppen met het verzamelen van gegevens over surfgedrag van gebruikers op externe websites, of een boete van € 250,000 per dag te krijgen.

Voor veel bedrijven, met name multinationals die in verschillende rechtsgebieden actief zijn, laat dit hen in een delicate positie als het gaat om het verzamelen en gebruiken van klantgegevens.

Aan de ene kant hebben deze bedrijven gebruikersgegevens nodig, zodat ze hoogwaardige services kunnen bieden die gebruikers ten goede komen, zoals gepersonaliseerde aanbevelingen. Aan de andere kant kunnen ze te maken krijgen met aanklachten als ze te veel gebruikersgegevens verzamelen of als ze gegevens van het ene naar het andere rechtsgebied proberen te verplaatsen.

Traditionele hulpprogramma's voor het bewaren van privacy zoals cryptografie kunnen dit dilemma niet oplossen, omdat het technologiebedrijven helemaal geen toegang tot de gegevens biedt. En anonimiteit vermindert de waarde van gegevens - een algoritme kan u geen gepersonaliseerde aanbevelingen geven als het niet weet wat uw gewoonten zijn.

Hoe werkt het?

Laten we het voorbeeld van wandelroutes door een park voortzetten. Als u de identiteit kent van degenen die in het onderzoek zijn opgenomen, maar u weet niet wie welke weg heeft genomen, dan kunt u ervan uitgaan dat de privacy wordt beschermd. Maar dat is misschien niet het geval.

Stel dat iemand die uw gegevens bekijkt wil weten of Bob het liefst door het gras of op het pad loopt. Ze hebben achtergrondinformatie verkregen over de andere 99-mensen in de studie, die hen vertelt dat 40-mensen het liefst op het pad lopen en 59 liever door het gras loopt. Daarom kunnen ze afleiden dat Bob, die de 100th-persoon in de database is, de 60th-persoon is die het liefst door het gras loopt.

Dit type aanval wordt een gedifferentieerde aanval genoemd en het is vrij moeilijk om je te verdedigen omdat je niet kunt bepalen hoeveel achtergrondkennis iemand kan verkrijgen. Differentiële privacy is bedoeld om te verdedigen tegen dit soort aanvallen.

Iemand die je looproute afleidt, klinkt misschien niet zo serieus, maar als je wandelroutes vervangt door HIV-testresultaten, zie je dat er potentieel is voor een serieuze inbreuk op de privacy.

Het differentiële privacymodel garandeert dat zelfs als iemand volledige informatie over 99 van 100-mensen in een gegevensverzameling heeft, ze de informatie over de uiteindelijke persoon nog steeds niet kunnen afleiden.

Het primaire mechanisme om dat te bereiken is om willekeurige ruis toe te voegen aan de verzamelde gegevens. In het padvoorbeeld kunt u bijvoorbeeld zeggen dat het aantal mensen dat het gras het liefst verkiest 59 of 61 is in plaats van het exacte aantal 60. Het onnauwkeurige nummer kan de privacy van Bob behouden, maar het heeft weinig invloed op het patroon: rond 60% nemen mensen het liefst een kortere weg.

Het geluid is zorgvuldig ontworpen. Toen Apple differentiële privacy gebruikte in iOS 10, voegde het ruis toe aan individuele gebruikersinvoer. Dat betekent dat het bijvoorbeeld de meest gebruikte emoji's kan volgen, maar het emoji-gebruik van elke individuele gebruiker wordt gemaskeerd.

Cynthia Dwork, de uitvinder van de differentiële privacy, heeft prachtige wiskundige bewijzen voorgesteld over hoeveel ruis voldoende is om de vereiste van differentiële privacy te bereiken.

Wat zijn de praktische toepassingen?

Differentiële privacy kan worden toegepast op alles van aanbevelingssystemen tot op locaties gebaseerde services en sociale netwerken. appel maakt gebruik van differentiële privacy om anonieme gebruiksinzichten te verzamelen van apparaten zoals iPhones, iPads en Macs. De methode is gebruiksvriendelijk en legaal in het ongewisse.

Differentiële privacy zou een bedrijf als Amazon ook toegang geven tot uw persoonlijke winkelvoorkeuren terwijl gevoelige informatie over uw historische inkooplijst verborgen blijft. Facebook kan het gebruiken om gedragsgegevens te verzamelen voor gerichte advertenties, zonder het privacybeleid van een land te schenden.

Hoe kan het in de toekomst worden gebruikt?

Verschillende landen hebben een verschillend privacybeleid en gevoelige documenten moeten momenteel handmatig worden gecontroleerd voordat ze van het ene land naar het andere gaan. Dit is tijdrovend en duur.

Onlangs heeft een team uit Deakin University ontwikkelde differentiële privacytechnologie om privacyprocessen te automatiseren in cloud-sharing-gemeenschappen in verschillende landen.

The ConversationZe stellen voor wiskundige formules te gebruiken om de privacywetten van elk land te modelleren die zouden kunnen worden vertaald naar "middleware" (software) om ervoor te zorgen dat de gegevens overeenstemmen. Het gebruik van differentiële privacy op deze manier kan de privacy van gebruikers beschermen en een hoofdpijn voor het delen van gegevens voor techbedrijven oplossen.

Over de auteur

Tianqing Zhu, docent Cyberbeveiliging, Faculteit Wetenschappen, Engineering & Gebouwde Omgeving, Deakin University

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Verwante Boeken

{amazonWS: searchindex = Books; keywords = personal privacy; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

Ontvang de nieuwste via e-mail

{Emailcloak = off}