Gezichtsherkenningstechnologie in de opsporing: tijd voor onafhankelijk toezicht?

De meeste social-media-gebruikers hebben waarschijnlijk weleens een foto van zichzelf online geplaatst. Vaak weten zij echter niet dat hun foto’s mogelijk middels scraping software van het internet worden gehaald om gezichtsherkenningssoftware te ontwikkelen. Het Amerikaanse Clearview AI is zo’n bedrijf dat gezichtsherkenningssoftware heeft ontwikkeld. Het heeft niet alleen een database met meer dan twintig miljard publieke gezichtsafbeeldingen van burgers, maar ook een gepatenteerd, zeer nauwkeurig en bias-free gezichtsherkenningsalgoritme.

Dergelijke databases en software kunnen worden ingezet voor de identificatie van op camerabeelden vastgelegde verdachten. Clearview AI verschaft opsporingsautoriteiten wereldwijd dan ook toegang tot zijn gezichtsherkenningssoftware. Ook heeft Clearview AI recentelijk JusticeClearview gelanceerd: een platform dat ook strafrechtadvocaten toegang verschaft tot zijn database.

Positieve ontwikkelingen dus! Toch kleven ook nadelen aan het gebruik van dergelijke software in de opsporing. Ook een intelligent gezichtsherkenningsalgoritme is niet onfeilbaar. Hierdoor lopen onschuldige burgers het risico ten onrechte in beeld te komen bij opsporingsdiensten. Met miljarden foto’s van social media-gebruikers, is de kans aanzienlijk dat er een match wordt gemaakt met een burger die toevallig grote uiterlijke overeenkomsten vertoont met de verdachte.

Ook bestaan er zwaarwegende privacyrechtelijke bezwaren. Clearview AI is door verschillende Europese toezichthouders op de vingers getikt voor het onrechtmatig verwerken van persoonsgegevens van EU-burgers. Aan het bedrijf zijn meerdere boetes van 20 miljoen euro opgelegd vanwege het niet adequaat informeren van de gebruikers en het verwerken van hun biometrische en locatiegegevens (art. 5 lid 1 sub a en 9 AVG). Het gebruik van gezichtsafbeeldingen voor de ontwikkeling van gezichtsherkenningssoftware is namelijk een vorm van verwerking van bijzondere persoonsgegevens die alleen is toegestaan als daar een juridische grondslag voor is (art. 9 jo. 6 AVG).

Gelet op deze bezwaren is het positief dat de minister voor Rechtsbescherming stelde dat Nederlandse opsporingsdiensten geen gebruik maken van de software van Clearview AI (Aanhangsel Handelingen II 2019/20, nr. 2004). Volgens Clearview AI zelf heeft de Nationale Politie echter meer dan vijftig keer de gezichtsherkenningssoftware van het bedrijf gebruikt. De minister zegt in reactie hierop dat individuele politiemedewerkers mogelijk de diensten van Clearview AI hebben gebruikt, maar dat de Nationale Politie als zodanig nog steeds niet samenwerkt met Clearview AI, noch plannen hiertoe heeft (Aanhangsel Handelingen II, 2021/22, nr. 105).

Bovendien acht hij het gebruik van Clearview AI ontoelaatbaar in het licht van de Wet politiegegevens. Dit is opvallend, want de politie maakt wel gebruik van een ander gezichtsherkenningssysteem: Catch. In theorie kan ook gebruik van andere software (zoals Clearview AI) worden toegelaten. De Wet politiegegevens biedt daarvoor een grondslag, mits de verwerking van deze gegevens ‘onvermijdelijk is voor het doel van de verwerking […] en de gegevens afdoende zijn beveiligd’ (art. 5 Wet politiegegevens).

De AVG – en daarmee het toezicht daarop – is niet van toepassing op gegevensverwerking door opsporingsdiensten (art. 2 AVG). Het onafhankelijk toezicht op gegevensverwerking door de politie op grond van de Wet politiegegevens is voornamelijk reactief van aard; de mogelijkheden voor proactief toezicht door onafhankelijke organen als de Autoriteit Persoonsgegevens zijn beperkt. Veelal zal onrechtmatige gegevensverwerking pas worden opgemerkt nadat de betrokken burger hiervan op de hoogte raakt, en vervolgens bij het juiste orgaan klaagt (zie WODC-rapport 3231 van Fedorova e.a. uit 2022, p. 33).

Zoals gezegd spelen in de context van verwerking van biometrische gegevens door opsporingsautoriteiten echter zwaarwegende belangen met het oog op zowel privacy als onschuldige burgers die onterecht in beeld komen als verdachte. Het is daarom wenselijk het toezicht op in ieder geval deze gegevensverwerking (bijvoorbeeld door gebruik van gezichtsherkenningssoftware) te beleggen bij een onafhankelijk orgaan, dat deze gegevensverwerking zowel reactief als proactief beoordeelt – zoals al het geval is voor de AVG.

Dit redactioneel van Yong Yong Hu & Maartje Kouwenberg is verschenen in Ars Aequi januari 2023.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *