Misschien heb je het al vernomen, de Europese Commissie is momenteel een plan aan het klaarstomen om één van de grootste gezichtsherkenningssystemen op de wereld te integreren, namelijk PLUM II. Met dit plan kunnen verschillende Europese landen foto’s van verdachten vergelijken. Hoe staat het dan met jouw privacy rechten?

Wat is het plan?
Wanneer het plan PLÜM II door zal gaan, ontstaat één van de grootste gezichtsherkenningsystemen ter wereld. Om dit te doen wordt er gebruikt gemaakt van slimme algoritmes om geportretteerden te identificeren. Dit betekent ook dat jouw gezicht in deze database staat en dat jij getraceerd zou kunnen worden. Politiediensten kunnen stilstaande beelden van CCTV-camera’s, foto’s van sociale media vergelijken met mugshots in een politiedatabase.

De burgerrechten-ngo European Digital Rights (EDRi) noemt het de meest uitgebreide biometrische surveillance infrastructuur ter wereld. Het gebruik van gezichtsherkenning heeft voordelen, maar natuurlijk ook nadelen. Zo kan je verkeerd geïdentificeerd worden door zo’n algoritme. Dit leidde in de Verenigde Staten al tot verschillende schrijnende situaties. Daarom verbieden tientallen steden in Amerika hun lokale politie om deze gezichtsherkenning-technologie te gebruiken. Europa debatteert momenteel nog over zo’n verbod.

Clearview AI

Naast het plan PLÜM II wordt momenteel ook Clearview AI, een Amerikaans bedrijf, al ingezet. Dit is ook een gezichtsherkenningssysteem die door verschillende landen wordt ingezet, zoals bij de oorlog in Oekraïne. Clearview AI helpt de identiteit van haar burgers te bepalen. Zo kunnen dodelijke slachtoffers beter geïdentificeerd worden en kan er een beter onderscheid gemaakt worden tussen Oekraïners en niet-Oekraïners.

Maar ook Clearview AI is alles behalve privacy vriendelijk. De kans is namelijk groot dat jouw foto al in dit systeem te vinden is. Zelfs als je zelf geen sociale media gebruikt, kan aan de hand van een getagde foto jouw foto in deze database terecht zijn gekomen.

Google, Meta en Twitter verzochten Clearview AI al eerder om te stoppen met verzamelen. Ook kreeg de organisatie al meerdere boetes, maar dat was voor Clearview AI geen reden om te stoppen. Daarnaast kwam de organisatie meerdere malen in opspraak wegens racisme en andere vormen van discriminatie en wil de organisatie zijn software verkopen aan Verenigde Arabische Emiraten. Qatar en Singapore zijn ook geïnteresseerd in deze software. In deze landen is bijvoorbeeld homoseksualiteit verboden en hebben deze landen, wanneer zij deze software in handen hebben, de beschikking over een database met tien miljard foto’s om zo kritische burgers en/of homo’s op te sporen.

Wat betekent dit in de toekomst voor onze privacy? En wat vind jij ervan dat jouw foto’s zonder toestemming worden gebruikt in zo’n database?

Bron: BNNVARA