Apple heeft jarenlang een lange inzet voor privacy gehad die niet door veel van zijn concurrenten werd gedeeld. Hoewel Google en Microsoft graag persoonlijke gegevens verzamelen die hackers en de overheid kunnen misbruiken, heeft Apple dit geweigerd. Apple heeft bijvoorbeeld op haar Worldwide Developers Conference aangekondigd dat alle iOS-apps tegen het einde van het jaar webcommunicatie moeten versleutelen.

Maar Apple heeft gegevens nodig om haar diensten te personaliseren en te weten welke aanpassingen hun klanten willen, dus op dinsdag besprak Apple senior vice-president van software-engineering Craig Federighi een concept met de naam differentiële privacy die in iOS 10-software zal zijn.

Volgens Apple zal differentiële privacy "helpen om de gebruikspatronen van een groot aantal gebruikers te ontdekken zonder afbreuk te doen aan de individuele privacy." Het idee is dat hoewel Apple gebruikersgegevens in het algemeen kan zien om zijn diensten te verbeteren, het voor iedereen onmogelijk zal zijn om deze te vinden gegevens over elke gebruiker. Dit omvat Apple zelf, maar ook hackers en regeringen.

De problemen met privacy

Hoe is het mogelijk om gegevens in geaggregeerde vorm te krijgen, maar niet op individueel niveau? Om dat te begrijpen, moeten we beginnen met de uitdagingen achter de bescherming van de privacy van gebruikers.

De meeste bedrijven doen moeite om uw privacy te beschermen, en zij zullen uw gegevens vaak anoniem maken en weigeren persoonlijke informatie te publiceren. Maar mensen kunnen gebruiken welke gegevens worden onthuld om uw persoonlijke gegevens te achterhalen.

Het is vergelijkbaar met het vinden van de echte identiteit van een internetforumgebruiker. U zult niet hun echte naam of telefoonnummer hebben, maar u kunt opmerken dat de gebruiker van het forum in New York woont en op een date gaat in dit restaurant. Door feiten zoals deze te gebruiken kun je het verkleinen tot je hun ware identiteit kunt ontdekken. En zoals Wired opmerkt, konden onderzoekers in 2007 zoiets doen toen Netflix een lijst met 'anonieme' klanten publiceerde.

Dit toont aan dat, zelfs als een bedrijf persoonlijke gegevens probeert te verbergen, hackers de informatie kunnen gebruiken die ze wel nodig hebben om persoonlijke gegevens te verzamelen. En als het bedrijf probeert alle informatie die ze hebben te verbergen, dan kunnen ze het niet aan het einde gebruiken.

Maar wat als alle informatie verduisterd is?

Het idee achter Differential Privacy

Dat is wat differentiële privacy van plan is te doen. Het werkt door algoritmisch de gegevens te verbergen met ruis, zodat hackers nooit echt kunnen achterhalen wat een persoon zei.

Veel van de ideeën achter differentiële privacy zijn theoretisch, uitgewerkt door techologen en cryptologen. Maar Cynthia Dwork, de mede-uitvinder van differentiële privacy volgens Engadget, geeft een voorbeeld van hoe het zou kunnen werken, met behulp van een inspecteur die iemand vraagt ​​of ze vals gespeeld hebben tijdens een examen:

Voordat iemand reageert, wordt de persoon gevraagd om een ​​muntstuk om te draaien. Als het zijn hoofden zijn, zou de reactie eerlijk moeten zijn, maar de uitkomst van de medaille mag niet worden gedeeld. Als de munt staarten omhoog komt, moet de persoon een tweede muntstuk omdraaien; als die de hoofden is, zou de reactie "ja" moeten zijn. Als de tweede staarten is, is het "nee".

Aangezien een munt over de lange termijn ongeveer vijftig procent van de tijd boven aan het hoofd of in de staarten uitkomt, kan de landmeter grof schatten hoeveel mensen daadwerkelijk hebben gefraudeerd op hun examen over het totaal. Maar als een kwaadwillend agentschap erachter komt dat een bepaalde persoon "ja" heeft geantwoord, heeft hij geen idee of dat komt omdat de persoon de test heeft bedrogen of omdat hij dat zei nadat hij een staarten kreeg en vervolgens op zijn medaille ging.

Werkelijke algoritmen voor differentiële privacy zijn veel gecompliceerder maar lijken op het voorbeeld van de coin-flip. Door wiskundige "ruis" te creëren om individuele gegevens te verbergen, is het voor iedereen onmogelijk om één gegevenspunt te kennen, zelfs als hij het algoritme kende.

Potentiële zorgen

Differentiële privacy zou kunnen betekenen dat Apple en andere bedrijven gegevens zouden kunnen krijgen die hen helpen terwijl ze de privacy van hun klanten beschermen. Maar het feit is dat veel van de werkzaamheden rond differentiële privacy grotendeels theoretisch zijn geweest, en er zijn geen kleinschalige tests geweest van hoe het zou kunnen werken.

Het op grote schaal implementeren, zoals Apple van plan is met iOS te doen, zonder kleinschalige proeven is riskant.

Differentiële privacy is echter lang niet zo handig op kleine schaal. De wiskundige ruis zal de gegevens in een kleine steekproef groter verduisteren, waardoor de kans op volledig onnauwkeurige gegevens groter wordt. Denk aan het bovenstaande voorbeeld van de munt. Als de landmeter slechts 10 mensen heeft ondervraagd, is het mogelijk dat acht mensen "staarten" hebben omgedraaid en zijn enquête waardeloos zou zijn. Maar als hij 10.000 heeft bevraagd, is het veel minder waarschijnlijk dat 8.000 mensen 'staarten' hebben omgedraaid, waardoor hij zijn gegevens beter kan vertrouwen.

Differentiële privacy is een moeilijk te begrijpen concept. Maar als Apple succesvol is, kan dit de manier waarop bedrijven gegevens verzamelen, serieus veranderen. Hoewel er bedrijven zijn die graag gebruikersgegevens gebruiken, kan het feit dat er een manier is om gegevens te verzamelen zonder de privacy van de persoon te beïnvloeden grote gevolgen hebben tussen bedrijf en klant.