Clearview AI nieuwslijn

Clearview is een fel omstreden gezichtsherkenningssoftware, die zonder toestemming een database van miljarden gezichten heeft opgesteld op basis van sociale media accounts. Foto’s werden o.m. van Facebook, Twitter, YouTube en LinkedIn gescraped. Deze werden vervolgens gekoppeld aan namen en sociale media-accounts. Op die manier kan de software door middel van een foto een persoon identificeren.

De software werd in eerste instantie aangeboden aan politie- en overheidsdiensten in de Verenigde Staten. Maar het bedrijf gaf ook private bedrijven en medewerkers binnen overheden toegang tot de software en begon de software ook te promoten in het buitenland, waaronder België. In veel landen druist het gebruik van de software echter in de privacywetgeving en wordt het (voorlopig?) terecht verboden.

Reclaim Your Face campaign

Artikels over Clearview

Artikels over gezichtsherkenning

Nieuwslijn

About ClearviewAI’s mockery of human rights, those fighting it, and the need for EU to intervene
Clearview AI describes itself as ‘The world’s largest facial network’. However, a quick search online would reveal that the company has been involved in several scandals, covering the front page of many publications for all the wrong reasons. In fact, since New York Times broke the story about Clearview AI in 2020, the company has been constantly criticised by activists, politicians and data protection authorities around the world. Read below a summary of the many actions taken against the company that hoarded 10 billion images of our faces. (…) by EDRi

ReclaimYourFace : About ClearviewAI’s mockery of human rights, those fighting it, and the need for EU to intervene 
Clearview AI describes itself as ‘The World’s Largest Facial Network’. However, a quick search online would reveal that the company has been involved in several scandals, covering the front page of many publications for all the wrong reasons. In fact, since New York Times broke the story about Clearview AI in 2020, the company has been constantly criticised by activists, politicians, and data protection authorities around the world. Read a summary of the many actions taken against the company that hoarded 10 billion images of our faces.

“Richard Bassed, head of the forensic medicine department at Monash University in Australia said that facial recognition can be unreliable when used to identify the dead and that fingerprints, dental records and DNA remain the most common ways of confirming someone’s identity. ‘(…) clouded eyes and injured and expressionless faces can render facial recognition unusable on the dead.’
‘If the technology is truly only used for identifying the dead, which I’m quite skeptical of, the biggest risk is misidentification and wrongfully telling people that their loved ones have died,’ said Albert Fox Cahn (Surveillance Technology Oversight Project).
In addition to concerns about reliability and breaches of privacy, there are also questions about what Clearview AI will do with the data it collects, including ‘photos of battlefield casualties’, said Cahn. ‘I have no transparency around how about data is used, retained, and shared. But it’s hard to imagine a situation where it is harder to enforce any restrictions on the use of biometric tracking than an active warzone. Once the technology is introduced into the conflict for one reason, it will inevitably be used for others. Clearview AI has no safeguards against that sort of misuse of the technology, whether it’s investigating people at checkpoints, interrogations, or even targeted killings.'”
The Guardian over Clearview in Oekraine en de claim dat de gezichtsherkenningssoftware gebruikt wordt om gesneuvelde Russische soldaten te identificeren.

“The use of this technology in a war context is unprecedented, and Clearview has given no assurances as to whether they’ve thought through the risks. In times and places of peace, their technology is greatly controversial, and as we’ve seen above, unlawful. Even the most careful safeguards we can establish in times of peace and stability, vanish when faced with the lawlessness and unpredictability of war. The risks are simply too high. We call for Clearview to do the right thing for once, and withdraw their offer.
From Covid pandemic to the war in Ukraine, it seems no human tragedy is off-limits to surveillance companies looking to sanitise their image.”
Privacy International

Het ministerie van Defensie van Oekraïne gebruikt de gezichtsherkenningssoftware van Clearview om Russische soldaten te identificeren. Clearview maakt daarvoor gebruik van een database van ruim twee miljard afbeeldingen van het Russische sociale netwerk VKontakte.  De technologie kan worden gebruikt om de namen van Russische soldaten te achterhalen, misinformatie te bestrijden en om doden te identificeren. Ook kan Clearview ingezet worden bij controlepunten om ‘personen van belang’ te herkennen. Volgens een woordvoerder van het bedrijf zal Clearview zijn diensten gratis aanbieden aan het land. (…) Reuters

Volgens noyb betekent de boete van 20 miljoen euro die Clearview kreeg van de Italiaanse privacytoezichthouder, het einde van het gezichtsherkenningsbedrijf en soortgelijke ondernemingen op de Europese markt. “De Italiaanse beslissing verbiedt duidelijk een businessmodel dat is gebaseerd op de massacollectie van biometrische data. Dit sluit de Europese markt voor Clearview AI en soortgelijk bedrijven. We zagen zelfs hoe een soortgelijk Europees bedrijf voor het uitkomen van de beslissing de EU ontvluchtte”, zegt Alan Dahi, privacyadvocaat bij noyb. Hij doelt op het Poolse bedrijf PimEyes dat opeens na een klacht tegen hen vanuit de Seychellen opereert. Noyb verwacht ook dat de Oostenrijkse privacytoezichthouder, in navolging van de Franse en Italiaanse autoriteiten, met een zelfde oordeel komt. (…) noyb

Artikel: Audit naar gebruik Clearview vernietigend voor federale politie (datapanik.org)
Meer: Toezichtrapport van het Controleorgaan op de politionele informatie met betrekking tot het gebruik van Clearview AI door de geïntegreerde politie (Referte: DIO21006)

In Italië heeft privacywaakhond GPDP Clearview AI een boete opgelegd van 20 miljoen euro. De manier waarop het bedrijf data verzamelt is in strijd met de Europese wetgeving, stelt de toezichthouder. De GPDP oordeelde dat Clearview AI “zonder passende wettelijke grondslag” gegevens van Italianen verwerkt. Ook informeert het bedrijf gebruikers niet voldoende over de manier waarop hun persoonsgegevens worden verwerkt. Daarmee wordt de Europese privacywet geschonden, aldus de toezichthouder. Clearview AI moet naast het betalen van de boete ook alle foto’s van Italianen uit zijn database verwijderen.  (…) GPDP

Clearview AI wil nagenoeg iedereen op aarde via een megadatabase die honderd miljard afbeeldingen bevat kunnen identificeren. Dat heeft het bedrijf tegenover investeerders laten weten, zo meldt The Washington Post op basis van een financiële presentatie die het in handen kreeg. Ook doet het bedrijf onderzoek naar technologieën waarmee het mensen kan identificeren op basis van de manier waarop ze lopen, hun locatie achterhalen op basis van een foto en hun vingerafdrukken op afstand kan scannen. Een gevraagde investering van vijftig miljoen dollar zal ook worden gebruikt voor het lobbyen van beleidsmakers, wat in gunstigere wetgeving moet resulteren. (…) security.nl

Privacy International : Don’t get involved with Clearview’s dodgy data
Clearview AI are in the spotlight again, after a pitch deck they’ve been sharing with investors was leaked to the Washington Post. The slide deck included a list of potential commercial business partners that included dating apps, ride hailing apps, even a baby sitting company. Their list was speculative, but concerning. So, we’re asking those companies to pledge that they will never work with Clearview, or use their dodgy database. (…) Read more

Facial recognition firm Clearview AI tells investors it’s seeking massive expansion beyond law enforcement
“(…) the company wants to expand beyond scanning faces for the police, saying in the presentation that it could monitor “gig economy” workers and is researching a number of new technologies that could identify someone based on how they walk, detect their location from a photo or scan their fingerprints from afar.”

Facial recognition: the CNIL orders CLEARVIEW AI to stop reusing photographs available on the Internet
Following individual complaints about Clearview AI’s facial recognition software, the French data protection authority CNIL decides that Clearview AI should cease collecting and using data from data subjects in France.

Privacy International reageert op het voornemen van de Britse privacytoezichthouder ICO dat ze een boete voor Clearview overwegen.
“(…) the announcement is more than just a possibility of a harsh fine; it is modern democracies’ response to a toxic business model that expects us to give up on every notion of privacy in online public spaces, with potential consequences for our offline lives as well.”
The ICO’s announcement about Clearview AI is a lot more than just a £17 million fine

De Britse privacytoezichthouder ICO is voornemens om het gezichtsherkenningsbedrijf Clearview AI een boete van twintig miljoen euro op te leggen voor het overtreden van de Britse privacywetgeving. Zo is informatie van Britse burgers niet op een redelijke wijze verwerkt, is informatie oneindig bewaard, is er geen rechtmatige reden voor het verzamelen van de informatie, is er niet voldaan aan de databeveiligingsstandaarden voor biometrische data zoals onder de AVG en Britse privacywetgeving gelden, zijn mensen niet geïnformeerd over wat er met hun data gebeurt en vraagt Clearview om aanvullende persoonlijke informatie, waaronder foto’s, wat mensen die hun data willen verwijderen hiervan kan weerhouden. (…) security.nl

De Australische en Britse privacytoezichthouders startten vorig jaar juli een onderzoek naar Clearview. Op basis daarvan stelt de Australische privacytoezichthouder OAIC nu dat het bedrijf de Australische privacywetgeving heeft geschonden. Zo werd informatie van Australische burgers zonder hun toestemming verzameld, werd de persoonlijke informatie op oneerlijke wijze verzameld, zijn er geen redelijke stappen genomen om mensen waarvan de informatie werd verzameld te informeren, nam het bedrijf geen redelijke stappen om ervoor te zorgen dat de persoonlijke informatie die het deelde klopte en zijn er geen maatregelen genomen om de systemen aan de Australische privacyprincipes te laten voldoen. (…) De Australische politie heeft tussen oktober 2019 en maart 2020 de gezichtsherkenningstool van Clearview getest. Een onderzoek van de OAIC naar deze tests loopt nog. (…) security.nl

Die Gesichtersuchmaschine PimEyes hat sich auf die Seychellen abgesetzt. Ein deutscher Datenschutzbeauftragter schickte einen Fragenkatalog hinterher. Die Frist zur Stellungnahme von vier Wochen ist nun verstrichen. Wir haben nachgefragt, was der Landesbeauftragte für den Datenschutz in Baden-Württemberg jetzt unternehmen wird. (…) Netzpolitik

“Deploying remote biometric identification in publicly accessible spaces means the end of anonymity in those places. Applications such as live facial recognition interfere with fundamental rights and freedoms to such an extent that they may call into question the essence of these rights and freedoms. […] A general ban on the use of facial recognition in publicly accessible areas is the necessary starting point if we want to preserve our freedoms and create a human-centric legal framework for AI.”
 – Andrea Jelinek, EDPB & Wojciech Wiewiórowski, EDPS, June 2021

Privacy International, Hermes Center, Homo Digitalis en noyb dienen gezamenlijke een reeks klachten in tegen Clearview AI. De klachten werden neergelegd bij de privacytoezichthouders in Frankrijk, Oostenrijk, Italië, Griekenland en Groot-Brittannië. De toezichthouders krijgen drie maanden tijd om een antwoord te formuleren.

The complaints argue that:

  • The Regulation (EU) 2016/679 (General Data Protection Regulation) (“GDPR”) applies to Clearview’s collection and biometric processing of faces found online, as these consist in mass processing of European residents’ personal data;
  • Clearview processes both “regular” personal data (Article 4(1) GDPR) and sensitive or “special categories” data (Article 9(1) GDPR);
  • Clearview has no lawful basis for collecting and processing any of this data. In particular, it does not obtain data subjects’ consent and such practices cannot fall under its “legitimate interests”. In addition, the processing of special categories data cannot be considered to be of data that has been “manifestly made public” by the data subject (Article 9(2)(e) GDPR);
  • Clearview contravenes a number of other GDPR principles, including the principles of transparency (Article 5(1)(a) GDPR) and purpose limitation (Article 5(1)(b) GDPR);
  • The use of Clearview’s tool by law enforcement authorities does not fulfil the conditions for law enforcement processing required by the Law Enforcement Directive (2016/680) as transposed in EU member states’ national laws. The use of such an invasive, privately developed facial recognition database enabling social media intelligence by law enforcement would not be based on law, nor would it be necessary and proportionate.

A BuzzFeed News investigation has found that employees at law enforcement agencies across the US ran thousands of Clearview AI facial recognition searches — often without the knowledge of the public or even their own departments. (…) Buzzfeed

Two immigrant-rights groups in California are suing Clearview AI, claiming the face-recognition company violates privacy laws by building the largest database of human faces in the nation and providing law enforcement with the database even in cities that have banned facial recognition. (…) CBS News / lawsuit (pdf)

Sweden’s data watchdog slaps police for unlawful use of Clearview AI
De Zweedse politie heeft van de Zweedse privacytoezichthouder een boete van 250.000 euro opgelegd gekregen wegens het onrechtmatig gebruik van het gezichtsherkenningssysteem van het bedrijf Clearview AI. (…) security.nl

How to Reclaim Your Face From Clearview AI
The Hamburg Data Protection Authority deemed Clearview AI’s biometric photo database illegal in the EU as a result of a complaint Matthias Marx, a member of the Chaos Computer Club (an EDRi member) filed. (…) CCC / noyb.eu /EDRi

Facial recognition may help find Capitol rioters — but it could harm many others, experts say. “It’s very tricky,” said Chris Gilliard. “I don’t want it to sound like I don’t want white supremacists or insurrectionists to be held accountable. But I do think because systemically most of those forces are going to be marshaled against Black and brown folks and immigrants, it’s a very tight rope. We have to be careful.” Black, brown, poor, trans and immigrant communities are “routinely over-policed,” Steve Renderos (MediaJustice) said, and that’s no different when it comes to surveillance. “This is always the response to moments of crises: Let’s expand our policing, let’s expand the reach of surveillance. But it hasn’t done much in the way of keeping our communities actually safe from violence.”  (…) LA Times

Clearview AI’s unlawful practices represented mass surveillance of Canadians, commissioners say
Gezichtsherkenningsbedrijf Clearview AI houdt zich bezig met illegale massasurveillance en overtreedt de Canadese wetgeving, zo stelt de Canadese privacytoezichthouder.  Volgens de toezichthouder verzamelde Clearview zeer gevoelige biometrische informatie zonder medeweten of toestemming van de personen in kwestie voor ongepaste doeleinden. Hierdoor ontstaat er een groot risico voor de personen in het systeem, waarvan het grootste gedeelte nooit betrokken is geweest of zal zijn bij een misdrijf, zo stelt de autoriteit. Het gaat dan bijvoorbeeld om datalekken of dat mensen ten onrechte als verdachte worden aangemerkt. De privacytoezichthouder vroeg Clearview om de diensten niet meer in Canada aan te bieden, wat het bedrijf ook deed. Andere aanbevelingen van de toezichthouder besloot het gezichtsherkenningsbedrijf niet op te volgen. Het gaat onder andere om het niet meer verzamelen van afbeeldingen van Canadese staatsburgers en het verwijderen van eerder verzamelde afbeeldingen. (…) security.nl

Clearview AI deemed illegal in the EU, but only partial deletion ordered (noyb)
De biometrische fotodatabase van Clearview AI is in strijd met de GDPR, zo heeft de Hamburgse privacytoezichthouder geoordeeld. Matthias Marx, lid van de Duitse Chaos Computer Club diende een klacht in bij de Hamburgse toezichthouder. Daarin vroeg hij zijn foto en de hash van zijn biometrisch profiel te verwijderen (pdf). De privacytoezichthouder oordeelde dat Clearview niet aan de GDPR voldoet, terwijl het dat wel moet, maar besloot toch geen pan-Europees bevel op te leggen. Het bedrijf hoeft daarnaast alleen de hashwaarde van het biometrische profiel van de klager te verwijderen. Foto’s mag het gezichtsherkenningsbedrijf ongemoeid laten. (…) security.nl

Face Surveillance and the Capitol Attack (EFF)
Het gebruik van gezichtsherkenning door de overheid is onacceptabel, ook in het geval om de bestormers van het Capitool te identificeren, zo stelt de Amerikaanse burgerrechtenbeweging EFF. Clearview heeft naar eigen zeggen meer dan 2400 politie- en opsporingsdiensten als klant. Een deel daarvan gebruikt de foto’s die tijdens de bestorming zijn gemaakt en vergelijkt die met de Clearview-database. Resultaten worden vervolgens naar de FBI gestuurd. Volgens de EFF moeten de Capitool-bestormers worden vervolgd, maar kleven er aan het gebruik van gezichtsherkenning teveel risico’s en problemen, zowel technisch als juridisch, om het gebruik ervan te rechtvaardigen. Een EFF-woordvoerder stelt dat het gebruik van gezichtsherkenning door de overheid een grens overschrijdt en het gebruik nooit gewoon moet worden gevonden, zelfs niet in het geval van de recente tragedie. Volgens Kelley moet er in de reactie op deze ongekende gebeurtenis bedachtzaam worden gereageerd en rekening gehouden met de gevaren die surveillancetechnieken zoals gezichtsherkenning vormen. “Deze technologie vormt een grote dreiging voor de persoonlijke privacy, raciale gelijkheid, politieke en religieuze uitingen en de fundamentele vrijheid om ons leven te leiden zonder dat al onze bewegingen en contacten in het geheim worden gemonitord en geanalyseerd.” (…) security.nl

I Got My File From Clearview AI, and It Freaked Me Out (OneZero)
Een Amerikaanse expert op het gebied van kunstmatige intelligentie is geschrokken nadat hij zijn profiel bij Clearview opvroeg. “De diepte en verscheidenheid van de data die Clearview over me heeft verzameld is verbijsterend”, aldus de AI-expert. Zijn profiel bevat een verhaal over hem uit 2012, alsmede een persoonlijk blog van hem en zijn vrouw van jaren terug. Ook zijn Facebookpagina was door Clearview aan zijn foto’s gekoppeld, aangevuld met de namen van verschillende connecties. Daarnaast ontdekte hij dat sommige van de data die het bedrijf verzamelde ten onrechte aan hem werd gekoppeld. Zo bevatte zijn profiel een link van een compleet ander persoon. “Al deze data was opgehaald via een enkele afbeelding van mijn gezicht. Ik ben nooit opgepakt of veroordeeld voor een misdrijf. Clearview heeft deze data zonder mijn medeweten, en zonder rechtvaardiging of gerede aanleiding verzameld.” (…) security.nl

Wozu nutzt Interpol Gesichtserkennung?
Die internationale Polizeiorganisation entwickelt ein System, mit dem unbekannte Personen mithilfe von Lichtbildern identifiziert werden sollen. In einer Datei speichert Interpol Fotos und Videos, die von Internetanbietern und anderen Firmen stammen. Für die Gesichtserkennung hat Interpol auch Dienste von Clearview ausprobiert.

Clearview heeft een database met meer dan een miljard profielfoto’s verzameld, voordat bedrijven als Google, Twitter en Facebook die verzameling verboden. Clearview stelt dat het die openbaar beschikbare foto’s wel mag verzamelen, aangezien die publiekelijk op internet te vinden waren. Bovendien krijgen alleen getrainde wetshandhavers toegang tot het systeem, stelt het bedrijf. Dat blijkt niet waar, meldt The New York Times. Rijke investeerders gebruiken Clearview voor eigen doeleinden. (…) RTL Nieuws

De Canadese privacytoezichthouder is een onderzoek gestart naar Clearview AI. Er zal worden onderzocht of het bedrijf zonder toestemming persoonlijke informatie verzamelt en gebruikt. Tevens zal de toezichthouder kijken of de werkwijze van Clearview aan de Canadese privacywetgeving voldoet. (…) security.nl

YouTube eist in een brief dat de omstreden startup ClearView stopt met het scannen van gezichten in de video’s op het platform. Met die scans bouwt ClearView een enorme database op voor gezichtsherkenning. Eerder dit jaar bleek dat de startup het hele internet afgaat, op zoek naar gezichten voor die steeds grotere databank. Met de brief dreigt YouTube maatregelen te nemen als ClearView niet stopt, meldt CBS News. Daarnaast eist de videosite dat alle opgeslagen beelden per direct worden gewist. (…) RTL Nieuws

Clearview’s facial recognition app has been used by the Justice Department, ICE, Macy’s, Walmart, and The NBA. A BuzzFeed News review of Clearview AI documents has revealed the company is working with more than 2,200 law enforcement agencies, companies, and individuals around the world. (…) Buzzfeed

Stalked by your digital doppelganger?
In this fourth installment of EDRi’s facial recognition and fundamental rights series, we explore what could happen if facial recognition collides with data-hungry business models and 24/7 surveillance. (…) EDRi

The person behind a privacy nightmare has a familiar face
Hoan Ton-That has invaded users’ privacy before. Now he’s asking law enforcement agencies to trust him.
“I wrote about Ton-That in February 2009 (‘scathingly,’ Hill writes), when he was living in San Francisco, developing first Facebook and then iPhone apps. He made the news for creating ViddyHo, a website that tricked users into sharing access to their Gmail accounts — a hacking technique known as ‘phishing’ — and then spammed their contacts on the Google Talk chat app. (The episode does not appear on Ton-That’s sanitized personal website.)”

https://www.standaard.be/cnt/dmf20210721_97659468

Hoe het begon …

Journaliste Kashmir Hill deed voor de New York Times onderzoek naar de Amerikaanse startup Clearview AI. Het bedrijf beschikt over een databank van 3 miljard foto’s die het verzamelde via sites als Facebook, Youtube en Twitter. Die staan ter beschiking van ruim 600 politiediensten en privébedrijven.
Oprichter van Clearview is de 31-jarige Australiër Hoan Ton-That, samen met Richard Schwartz, die voor Rudy Giuliani werkte toen hij burgemeester was van New York. Ton-That bouwde de software, Schwartz zorgde voor de contacten.

The Secretive Company That Might End Privacy as We Know It (NY Times – paywall)

Hoe het werkt. Een gebruiker van de Clearview AI-app uploadt een foto van een persoon naar de servers van het bedrijf. De software van het bedrijf scant de foto en verwerkt de informatie in vectoren. Die vectoren vergelijkt de software met de vectoren van andere foto’s in de database. Wanneer de geüploade foto van de appgebruiker wordt gelinkt aan een foto in de database, krijgt de gebruiker die foto’s te zien inclusief bronvermelding. Op die manier is naast persoonlijke data als de naam en woonplaats van een persoon ook een heleboel andere persoonlijke informatie te achterhalen.