In Het Parool: Is dit het einde van privacy in Europa?

Betekenen de oorlog in Oekraïne en het bestrijden van misdaad het einde van privacy in Europa? Die vraag beantwoord ik in Het Parool en op Joop.nl.

De oorlog in Oekraïne kostte meer dan 1400 Oekraïners het leven. Om de identiteit van de slachtoffers te bepalen wordt een systeem gebruikt waar tien miljard foto’s in staan, zonder dat iemand in die database daar ooit toestemming voor heeft gegeven. Dat is niet het enige Europese privacy-schandaal: de Europe Commissie heeft een plan voor één van de grootste gezichtsherkenningssystemen ter wereld. Betekent dit het einde van privacy in Europa?

Clearview helpt Oekraïne

Clearview AI, een Amerikaans bedrijf, helpt de Oekraïense overheid ‘om niets’ om de identiteit van haar burgers te helpen bepalen. Zo kunnen dodelijke slachtoffers beter geïdentificeerd worden. Ook bij checkpoints komt de software van pas, want zo worden niet-Oekraïners sneller herkend. Dat klinkt als goed nieuws, maar dat is het niet.

De gezichtsherkenningssoftware van het bedrijf is namelijk allesbehalve privacy-vriendelijk. Sterker nog: de kans is groot dat ook jouw foto in Clearview AI staat, zonder dat je daar ooit toestemming voor hebt gegeven. Ook als je geen social media hebt, sta je waarschijnlijk in het systeem, want de kans is groot dat je op een (online) groepsfoto staat en ‘getagd’ bent. Clearview heeft inmiddels meer dan tien miljard foto’s via social media en andere online bronnen verzameld.

Clearview is niet erg privacy-vriendelijk

Google, Meta (het moederbedrijf van Facebook) en Twitter verzochten Clearview AI om te stoppen met het verzamelen van foto’s, maar daar gaat het bedrijf vrolijk mee door. Boetes houden het bedrijf niet tegen, zelfs niet de 20 miljoen euro boete die het vorige maand kreeg in Italië omdat het bedrijf zich niet houdt aan de Europese privacyrichtlijn GDPR. Clearview AI komt daarbij regelmatig in opspraak wegens racisme en andere vormen van discriminatie die zich vaak voordoen bij kunstmatig intelligente systemen. Willen we echt dat een racistisch algoritme bepaalt wie wie is? Leren we dan niets van de toeslagenaffaire waarbij een racistisch algoritme bepaalde wie waarschijnlijk met toeslagen zou frauderen?

Het bedrijf wil tot overmaat van ramp zijn software verkopen aan Verenigde Arabische Emiraten, dat weinig vredelievend is tegenover politieke dissidenten. Op de verlanglijst staan ook Qatar en Singapore, waar homoseksualiteit strafbaar is. Moeten deze landen echt de beschikking krijgen over een database met tien miljard foto’s om zo kritische burgers of homoseksuelen op te sporen? En wat gebeurt er als deze software in handen komt van Russische soldaten, die zo ook Oekraïense burgers kunnen identificeren?

Prüm II bedreigt privacy in Europa

Ook in de EU staat privacy onder druk. Prüm II, een nieuw plan van de Europese Commissie, laat Europese landen foto’s van verdachten vergelijken. Net zoals bij Clearview AI wordt er gebruik gemaakt van slimme algoritmes om verdachten te identificeren. Handig als een Spaanse crimineel zich in Frankrijk bevindt, toch?

Als dit plan doorgaat, ontstaat een van de grootste gezichtsherkenningssystemen ter wereld. De politiediensten kunnen stilstaande beelden van CCTV-camera’s, foto’s van sociale media of die op de telefoon van een slachtoffer vergelijken met mugshots in een politiedatabase. De burgerrechten-ngo European Digital Rights (EDRi) noemt het de meest uitgebreide biometrische surveillance infrastructuur ter wereld.

Risico’s van gezichtsherkenning

Het gebruik van gezichtsherkenningstechnologie is niet zonder risico: wie verkeerd geïdentificeerd wordt door zo’n algoritme is de klos, wat tot schrijnende situaties leidde in de Verenigde Staten. Tientallen steden in Amerika verbieden lokale politiediensten dan ook om gezichtsherkenning-technologie te gebruiken. De EU debatteert op dit moment nog over zo’n verbod.

Clearview AI en Prüm II illustreren een modern dilemma voor Europa. Accepteren we dat de privacy van – ook onschuldige – burgers geschonden wordt in de strijd tegen misdaad? Komen we in verzet tegen een bedrijf dat software ontwikkelt om mensenrechtenschendingen mogelijk te maken, ook als dat bedrijf Oekraïne helpt om slachtoffers te identificeren? Is het weggeven van software aan een land in oorlog niet een smakeloze manier om goede sier te maken, iets als greenwashing (duurzame schijn), maar dan warwashing? En zouden we iets leren van de toeslagenaffaire, waarbij we de macht uit handen gaven aan een racistisch algoritme? 

Vraag nu gemakkelijk & snel een offerte aan

Schrijf je in voor de nieuwsbrief

Menu