Hoe kan verskillende data beskerm jou data?

Hoe kan verskillende data beskerm jou data? Marco Verch / Flickr, CC BY

Tegniese maatskappye kan differensiële privaatheid gebruik om totale data oor gebruikersgewoontes te versamel en te deel, terwyl individuele privaatheid behoue ​​bly.

Dit is geen geheim dat groot tegnologie maatskappye soos Facebook, Google, Apple en Amazon steeds meer ons persoonlike en sosiale interaksies infiltreer om daagliks groot hoeveelhede data op ons te versamel nie. Terselfdertyd maak privaatheidsoortredings in die kuberruimte gereelde nuusblad voorblad.

So hoe moet privaatheid beskerm word in 'n wêreld waar data versamel word en met toenemende spoed en vindingrykheid gedeel word?

Differensiële privaatheid is 'n nuwe model van kuberveiligheid wat voorstanders beweer dat persoonlike data veel beter as tradisionele metodes kan beskerm.

Die wiskunde waarop dit gebaseer is, is 10 jaar gelede ontwikkel en die metode is deur Apple en. Aanvaar Google in onlangse jare.

Wat is differensiële privaatheid?

Differensiële privaatheid maak dit vir tegnologie-maatskappye moontlik om algemene inligting oor gebruikersgewoontes te versamel en te deel, terwyl die privaatheid van individuele gebruikers gehandhaaf word.

Byvoorbeeld, sê jy wou die gewildste roetes wys wat mense deur 'n park loop. Jy volg die roetes van 100 mense wat gereeld deur die park loop, en of hulle op die pad of deur die gras loop.


Kry die nuutste van InnerSelf


Maar in plaas van die spesifieke mense wat elke roete deel, deel jy die totale data wat oor tyd versamel is. Mense wat jou resultate bekyk, sal dalk weet dat 60 uit 100 mense verkies om 'n kortpad deur die gras te neem, maar nie watter 60-mense nie.

Hoekom het ons dit nodig?

Baie van die wêreld se regerings het streng beleid oor hoe tegnologie maatskappye data insamel en deel. Maatskappye wat nie die reëls volg nie, kan groot boetes ondervind. A Belgiese hof het onlangs Facebook bestel Om op te hou data versamel op gebruikers se blaaitone op eksterne webwerwe, of boetes van € 250,000 per dag in die gesig staar.

Vir baie maatskappye, veral multinationals wat in verskillende jurisdiksies werksaam is, laat dit hulle in 'n delikate posisie as dit kom by die insameling en gebruik van kliënt data.

Aan die een kant het hierdie maatskappye gebruikers se data nodig, sodat hulle hoëgehalte dienste kan lewer wat gebruikers bevoordeel, soos persoonlike aanbevelings. Aan die ander kant kan hulle koste weerspieël as hulle te veel gebruikersdata versamel, of as hulle probeer om data van een jurisdiksie na 'n ander te skuif.

Tradisionele privaatheidsbesparende gereedskap soos kriptografie kan hierdie dilemma nie oplos nie, aangesien dit voorkom dat tegnologie maatskappye toegang tot die data kry. En anonimiteit verminder die waarde van data - 'n Algoritme kan jou nie persoonlike aanbevelings dien as dit nie weet wat jou gewoontes is nie.

Hoe werk dit?

Kom ons gaan die voorbeeld van staproetes deur 'n park voort. As u die identiteit van diegene wat in die studie ingesluit is, ken, maar u weet nie wie die roete geneem het nie, dan kan u aanvaar dat privaatheid beskerm word. Maar dit mag nie die geval wees nie.

Sê iemand wat jou data bekyk, wil vasstel of Bob verkies om deur die gras of op die pad te loop. Hulle het agtergrondinligting gekry oor die ander 99-mense in die studie, wat hulle vertel dat 40 mense verkies om op die pad te loop en 59 verkies om deur die gras te loop. Daarom kan hulle aflei dat Bob, wie die 100-persoon in die databasis is, die 60-persoon is wat verkies om deur die gras te loop.

Hierdie tipe aanval is 'n gedifferensieerde aanval, en dit is redelik moeilik om te verdedig omdat jy nie kan beheer hoeveel agtergrondkennis iemand kan kry nie. Differensiële privaatheid poog om te verdedig teen hierdie tipe aanval.

Iemand wat jou looproete aflei, kan dalk nie te ernstig wees nie, maar as jy wandelroetes met MIV-toetsuitslae vervang, kan jy sien daar is potensiaal vir 'n ernstige inval in privaatheid.

Die differensiële privaatheidsmodel waarborg dat selfs as iemand volledige inligting oor 99 van 100-mense in 'n datastel het, kan hulle nie die inligting oor die finale persoon aflei nie.

Die primêre meganisme om dit te bereik, is om ewekansige geraas by die totale data te voeg. In die voorbeeld kan jy sê dat die aantal mense wat die gras verkies om oor te steek, 59 of 61 is, eerder as presiese aantal 60. Die onakkurate nommer kan die privaatheid van Bob behou, maar dit sal baie min impak op die patroon hê: rondom 60% verkies mense om 'n kortpad te neem.

Die geraas word noukeurig ontwerp. Toe Apple differensiële privaatheid in iOS 10 gebruik het, het dit geluid bygevoeg vir individuele gebruikersinsette. Dit beteken dat dit byvoorbeeld die mees gebruikte emojis kan volg, maar die emoji-gebruik van enige individuele gebruiker word gemasker.

Cynthia Dwork, die uitvinder van die differensiële privaatheid, het wonderlike wiskundige bewyse voorgestel oor hoeveel geraas genoeg is om die vereiste van differensiële privaatheid te bereik.

Wat is sy praktiese toepassings?

Differensiële privaatheid kan toegepas word op alles van aanbevelingsstelsels na ligginggebaseerde dienste en sosiale netwerke. appel gebruik differensiële privaatheid anonieme gebruik insigte te versamel uit toestelle soos iPhones, iPads en Macs. Die metode is gebruikersvriendelik, en wettig in die duidelike.

Differensiële privaatheid sal ook toelaat dat 'n maatskappy soos Amazon toegang tot jou persoonlike inkopievoorkeure, terwyl jy sensitiewe inligting oor jou historiese aankooplys verberg. Facebook kan dit gebruik om gedragsgegewens vir geteikende advertensies te versamel, sonder om 'n land se privaatheidsbeleid te skend.

Hoe kan dit in die toekoms gebruik word?

Verskillende lande het verskillende privaatheidsbeleide, en sensitiewe dokumente moet tans handmatig nagegaan word voordat hulle van een land na 'n ander oorgaan. Dit is tydrowend en duur.

Onlangs het 'n span van Deakin Universiteit ontwikkelde differensiële privaatheidstegnologie om privaatheidsprosesse binne wolkdeelende gemeenskappe oor lande te automatiseer.

Die gesprekHulle stel voor om wiskundige formules te gebruik om die privaatheid wette van elke land te modelleer wat vertaal kan word na "middleware" (sagteware) om te verseker dat die data voldoen. Die gebruik van differensiële privaatheid op hierdie manier kan die privaatheid van gebruikers beskerm en 'n hoofstuk vir data-sharing vir tegnologie-maatskappye oplos.

Oor Die Skrywer

Tianqing Zhu, Dosent in Cyber ​​Security, Fakulteit Natuurwetenskappe, Ingenieurswese en Bou-omgewing, Deakin Universiteit

Hierdie artikel is oorspronklik gepubliseer op Die gesprek. Lees die oorspronklike artikel.

verwante Boeke

{amazonWS: search index = Boeke; sleutelwoorde = persoonlike privaatheid; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

Facebook-ikoonTwitter-ikoonrss-ikoon

Kry die nuutste per e-pos

Emailcloak = {af}