• Democratic Societies in the Digital Age 1 : Mass Surveillance and Facial Recognition
    https://edps.europa.eu/democratic-societies-digital-age-1-mass-surveillance-and-facial-recognit

    Do All Roads Lead to Datocracy ? Our generation sees the development and deployment of disruptive technologies at a high rate in contexts affecting both everyday life on an individual level and the functioning of democracies. The European Union takes pride in advocating for democratic values and fundamental rights, among which we find digital rights. Yet, upholding these is a constant struggle and therefore individual and societal data protection concerns are now more tangible than ever. (...)

    #biométrie #facial #législation #reconnaissance #surveillance #EuropeanDigitalRights-EDRi

  • This Clearview AI Patent Proposal Describes Using Facial Recognition For Dating
    https://www.buzzfeednews.com/article/carolinehaskins1/facial-recognition-clearview-patent-dating

    A Clearview AI Patent Application Describes Facial Recognition For Dating, And Identifying Drug Users And Homeless People A patent unveiled on Thursday describes several potential uses for Clearview AI, such as creating networks for people in industries like real estate or retail to “share headshots of high-risk individuals.” Clearview AI, the facial recognition company that claims it’s scraped 3 billion images from the internet to power its face-matching system, has proposed applying its (...)

    #Clearview #algorithme #biométrie #facial #reconnaissance

  • Clearview AI envisage la création d’une effrayante app de reconnaissance faciale grand public
    https://www.numerama.com/tech/688886-clearview-ai-envisage-la-creation-dune-effrayante-app-de-reconnaiss

    Clearview a déposé un brevet dans lequel il projette toutes sortes d’usages plus inquiétants les uns que les autres pour sa technologie de reconnaissance faciale. Ce n’est qu’un brevet déposé au bureau américain de la propriété intellectuelle, mais il en dit long sur les ambitions inquiétantes de Clearview AI. Souvenez-vous de cette entreprise, exposée sous les projecteurs par le New York Times en janvier 2020. Elle se vantait d’avoir aspiré plus de 3 milliards de photos sur le web et de s’en servir (...)

    #Clearview #algorithme #biométrie #facial #reconnaissance #brevet

    //c1.lestechnophiles.com/www.numerama.com/wp-content/uploads/2021/02/matrixxx.jpg

  • Facial recognition tech stories and rights harms from around the world
    https://www.statewatch.org/news/2021/february/in-focus-facial-recognition-tech-stories-and-rights-harms-from-around-th

    A new report by the International Network of Civil Liberties Organisations looks at the use and abuse of facial recognition technology by states across the globe, providing detailed case studies from the Americas, Africa, Asia, Australia and Europe. From Delhi to Detroit, Budapest to Bogota, Facial Recognition Technology (FRT) is being rapidly deployed in public and private spaces across the world. As of 2019, 64 out of 176 countries were using facial recognition surveillance systems. In (...)

    #Clearview #Hikvision #FBI #algorithme #CCTV #biométrie #racisme #facial #reconnaissance #vidéo-surveillance #biais #discrimination #surveillance (...)

    ##StateWatch

  • Despite Scanning Millions With Facial Recognition, Feds Caught Zero Imposters at Airports Last Year
    https://onezero.medium.com/despite-scanning-millions-of-faces-feds-caught-zero-imposters-at-air

    U.S. Customs and Border Protection scanned more than 23 million people in public places with facial recognition technology in 2020 U.S. Customs and Border Protection scanned more than 23 million people with facial recognition technology at airports, seaports, and pedestrian crossings in 2020, the agency recently revealed in its annual report on trade and travel. The agency scanned four million more people than in 2019. The report indicates that the system caught no imposters traveling (...)

    #CBP #algorithme #CCTV #biométrie #facial #fraude #reconnaissance #vidéo-surveillance #iris #empreintes #frontières #surveillance (...)

    ##_

  • Clearview AI’s biometric photo database deemed illegal in the EU
    https://noyb.eu/en/clearview-ais-biometric-photo-database-deemed-illegal-eu

    Clearview AI is a US company that scrapes photos from websites to create a permanent searchable database of biometric profiles. US authorities use the face recognition database to find further information on otherwhise unknown persons in pictures and videos. Following legal submissions by noyb, the Hamburg Data Protection Authority yesterday deemed such biometric profiles of Europeans illegal and ordered Clearview AI to delete the biometric profile of the complainant. Link to the (...)

    #Clearview #algorithme #CCTV #biométrie #procès #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #données #facial #reconnaissance #scraping #NOYB (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##consentement

  • Comment le #maquillage peut nous protéger de la #reconnaissance_faciale ?
    https://www.ladn.eu/mondes-creatifs/maquillage-camouflage-devient-une-arme-anti-surveillance

    Dans les rues de Londres, le collectif anti-surveillance The Dazzle Club milite silencieusement et à couvert. Son arme de prédilection ? Le maquillage asymétrique pour tromper les dispositifs biométriques de reconnaissance faciale. Trois de ses fondatrices, Emily Roderick, Georgina Rowlands et Anna Hart, nous racontent.

    Août 2019. Le quartier de King’s Cross à Londres prévoit de déployer un système de #caméras de #surveillance utilisant la reconnaissance faciale sans consulter les #habitants. Les masques ne font pas encore partie de leur quotidien, mais le #collectif d’artistes The #Dazzle_Club s’interroge : « peut-on encore être libres dans l’espace public ? »

    Affublées de maquillages mystérieusement graphiques, Emily Roderick, Georgina Rowlands, Anna Hart et Evie Price se mettent alors à marcher, en silence, dans les rues de la capitale. Derrière la performance artistique se cache une véritable technique de camouflage, CV Dazzle, développée en 2010 par le chercheur Adam Harvey. Le but ? Protéger nos visages des algorithmes de reconnaissance faciale.

  • Navalny protesters say police are using facial recognition to track them down
    https://www.codastory.com/authoritarian-tech/navalny-protests-facial-recognition

    Fears raised over the use of surveillance technology at demonstrations Russian citizens claim Moscow police are using facial recognition technology to track, trace and detain protesters who have attended rallies in support of leading Putin critic Alexey Navalny. Police have responded harshly to the protests sweeping Russia : more than 5,100 people have been detained so far, with a further 1,000 people arrested yesterday as a Moscow court sentenced the opposition leader to two years and (...)

    #algorithme #CCTV #activisme #biométrie #facial #reconnaissance #vidéo-surveillance #surveillance

  • This is how we lost control of our faces | MIT Technology Review
    https://www.technologyreview.com/2021/02/05/1017388/ai-deep-learning-facial-recognition-data-history

    The largest ever study of facial-recognition data shows how much the rise of deep learning has fueled a loss of privacy.
    by

    Karen Hao
    February 5, 2021

    In 1964, mathematician and computer scientist Woodrow Bledsoe first attempted the task of matching suspects’ faces to mugshots. He measured out the distances between different facial features in printed photographs and fed them into a computer program. His rudimentary successes would set off decades of research into teaching machines to recognize human faces.

    Now a new study shows just how much this enterprise has eroded our privacy. It hasn’t just fueled an increasingly powerful tool of surveillance. The latest generation of deep-learning-based facial recognition has completely disrupted our norms of consent.

    People were extremely cautious about collecting, documenting, and verifying face data in the early days, says Raji. “Now we don’t care anymore. All of that has been abandoned,” she says. “You just can’t keep track of a million faces. After a certain point, you can’t even pretend that you have control.”

    A history of facial-recognition data

    The researchers identified four major eras of facial recognition, each driven by an increasing desire to improve the technology. The first phase, which ran until the 1990s, was largely characterized by manually intensive and computationally slow methods.

    But then, spurred by the realization that facial recognition could track and identify individuals more effectively than fingerprints, the US Department of Defense pumped $6.5 million into creating the first large-scale face data set. Over 15 photography sessions in three years, the project captured 14,126 images of 1,199 individuals. The Face Recognition Technology (FERET) database was released in 1996.

    The following decade saw an uptick in academic and commercial facial-recognition research, and many more data sets were created. The vast majority were sourced through photo shoots like FERET’s and had full participant consent. Many also included meticulous metadata, Raji says, such as the age and ethnicity of subjects, or illumination information. But these early systems struggled in real-world settings, which drove researchers to seek larger and more diverse data sets.

    In 2007, the release of the Labeled Faces in the Wild (LFW) data set opened the floodgates to data collection through web search. Researchers began downloading images directly from Google, Flickr, and Yahoo without concern for consent. LFW also relaxed standards around the inclusion of minors, using photos found with search terms like “baby,” “juvenile,” and “teen” to increase diversity. This process made it possible to create significantly larger data sets in a short time, but facial recognition still faced many of the same challenges as before. This pushed researchers to seek yet more methods and data to overcome the technology’s poor performance.

    Then, in 2014, Facebook used its user photos to train a deep-learning model called DeepFace. While the company never released the data set, the system’s superhuman performance elevated deep learning to the de facto method for analyzing faces. This is when manual verification and labeling became nearly impossible as data sets grew to tens of millions of photos, says Raji. It’s also when really strange phenomena start appearing, like auto-generated labels that include offensive terminology.

    Image-generation algorithms are regurgitating the same sexist, racist ideas that exist on the internet.

    The way the data sets were used began to change around this time, too. Instead of trying to match individuals, new models began focusing more on classification. “Instead of saying, ‘Is this a photo of Karen? Yes or no,’ it turned into ‘Let’s predict Karen’s internal personality, or her ethnicity,’ and boxing people into these categories,” Raji says.

    Amba Kak, the global policy director at AI Now, who did not participate in the research, says the paper offers a stark picture of how the biometrics industry has evolved. Deep learning may have rescued the technology from some of its struggles, but “that technological advance also has come at a cost,” she says. “It’s thrown up all these issues that we now are quite familiar with: consent, extraction, IP issues, privacy.”

    Raji says her investigation into the data has made her gravely concerned about deep-learning-based facial recognition.

    “It’s so much more dangerous,” she says. “The data requirement forces you to collect incredibly sensitive information about, at minimum, tens of thousands of people. It forces you to violate their privacy. That in itself is a basis of harm. And then we’re hoarding all this information that you can’t control to build something that likely will function in ways you can’t even predict. That’s really the nature of where we’re at.”

    #Reconnaissance_faciale #éthique #Histoire_numérique #Surveillance

  • How Your Phone Betrays Democracy
    https://www.nytimes.com/interactive/2019/12/21/opinion/location-data-democracy-protests.html?action=click&module=RelatedLinks&pgty

    In footage from drones hovering above, the nighttime streets of Hong Kong look almost incandescent, a constellation of tens of thousands of cellphone flashlights, swaying in unison. Each twinkle is a marker of attendance and a plea for freedom. The demonstrators, some clad in masks to thwart the government’s network of facial recognition cameras, find safety in numbers. But in addition to the bright lights, each phone is also emitting another beacon in the darkness — one that’s invisible to (...)

    #algorithme #CCTV #drone #smartphone #activisme #biométrie #géolocalisation #données #facial #reconnaissance #vidéo-surveillance #extrême-droite #surveillance (...)

    ##DataBrokers

  • They Stormed the Capitol. Their Apps Tracked Them.
    https://www.nytimes.com/2021/02/05/opinion/capitol-attack-cellphone-data.html

    Times Opinion was able to identify individuals from a trove of leaked smartphone location data. In 2019, a source came to us with a digital file containing the precise locations of more than 12 million individual smartphones for several months in 2016 and 2017. The data is supposed to be anonymous, but it isn’t. We found celebrities, Pentagon officials and average Americans. It became clear that this data — collected by smartphone apps and then fed into a dizzyingly complex digital (...)

    #Adobe #Google #TikTok #Facebook #Instagram #algorithme #Bluetooth #CCTV #smartphone #WiFi #GPS #anonymat #biométrie #géolocalisation #facial #reconnaissance #vidéo-surveillance #délation #extrême-droite #marketing (...)

    ##surveillance

  • Des robots et des hommes
    https://www.arte.tv/fr/videos/058352-000-A/des-robots-et-des-hommes

    Les robots pourront-ils un jour remplacer l’homme, voire le dépasser ? Une enquête passionnante sur l’intelligence artificielle, ses promesses et ses risques. Alors qu’en 1997 la victoire aux échecs d’un ordinateur face au génie Garry Kasparov a marqué un tournant dans l’histoire de l’intelligence artificielle, la robotique envahit discrètement nos vies, avec des progrès majeurs, notamment en chirurgie. On estime qu’un tiers des emplois actuels devrait disparaître au profit de l’automatisation d’ici à (...)

    #algorithme #robotique #biométrie #technologisme #facial #reconnaissance #voix

    https://api-cdn.arte.tv/api/mami/v1/program/fr/058352-000-A/940x530

  • Le réquisitoire de la CNIL contre le recours aux drones prévu par la loi « sécurité globale »
    https://www.lemonde.fr/societe/article/2021/02/03/drones-le-requisitoire-de-la-cnil-contre-la-loi-securite-globale_6068631_322

    La présidente de la Commission nationale informatique et libertés s’inquiète notamment d’un encadrement juridique insuffisamment protecteur. La Commission nationale informatique et libertés (CNIL) ne s’en cache pas. Elle considère qu’en l’état actuel des choses le recours aux drones par les forces de l’ordre présente un risque pour les libertés individuelles. Après avoir rappelé à l’ordre avec quelque rudesse le ministère de l’intérieur, l’enjoignant de cesser d’« utiliser de manière illicite des drones (...)

    #algorithme #CCTV #drone #biométrie #aérien #facial #législation #reconnaissance #vidéo-surveillance #LoiSécuritéGlobale #surveillance (...)

    ##CNIL

  • Surveillance of Uyghurs Detailed in Chinese Police Database
    https://theintercept.com/2021/01/29/china-uyghur-muslim-surveillance-police

    Millions of Leaked Police Files Detail Suffocating Surveillance of China’s Uyghur Minority The order came through a police automation system in Ürümqi, the largest city in China’s northwest Xinjiang region. The system had distributed a report — an “intelligence information judgment,” as local authorities called it — that the female relative of a purported extremist had been offered free travel to Yunnan, a picturesque province to the south. The woman found the offer on the smartphone messaging (...)

    #WeChat #algorithme #CCTV #WeChatPay #payement #biométrie #facial #QQ #reconnaissance #religion #vidéo-surveillance #Islam #surveillance #données #Tencent #anti-terrorisme #discrimination #IJOP #smartphone (...)

    ##géolocalisation

  • Lo scontro Viminale-Garante della privacy sul riconoscimento facciale in tempo reale
    https://irpimedia.irpi.eu/viminale-garante-privacy-riconoscimento-facciale-in-tempo-reale

    Finanziato dall’Europa, il sistema SARI dovrebbe monitorare le operazioni di sbarco e tutte le varie attività correlate. In altri Stati questa tecnologia è stata già giudicata illegale Mentre in tutto il mondo si discute dei rischi etici del riconoscimento facciale, della necessità di sospendere queste tecnologie fino a quando non saranno correttamente regolate, o persino di introdurre dei divieti totali al loro utilizzo, la Direzione Centrale Anticrimine della Polizia di Stato ha invece (...)

    #algorithme #CCTV #biométrie #migration #facial #reconnaissance #surveillance

  • Flush with EU funds, Greek police to introduce live face recognition before the summer
    https://algorithmwatch.org/en/story/greek-police-live-facial-recognition

    Greek police are due to receive gear that allows for real-time face recognition during police patrols. Despite concerns that the system could seriously affect civil liberties, details about the project are scarce. By the summer of 2021, the Greek police should receive thousands of devices allowing for live facial recognition and fingerprint identification. The devices should be deployed in everyday police work, according to a Greek police official AlgorithmWatch talked to. The project is (...)

    #biométrie #facial #police #reconnaissance #surveillance

  • Oakland’s Progressive Fight to Protect Residents from Government Surveillance
    https://www.eff.org/deeplinks/2021/01/oaklands-progressive-fight-protect-residents-government-surveillance

    The City of Oakland, California, has once again raised the bar on community control of police surveillance. Last week, Oakland’s City Council voted unanimously to strengthen the city’s already groundbreaking Surveillance and Community Safety Ordinance. The latest amendment, which immediately went into effect, adds prohibitions on Oakland’s Police Department using predictive policing technology—which has been shown to amplify existing bias in policing—as well as a range of privacy-invasive (...)

    #algorithme #CCTV #biométrie #racisme #facial #reconnaissance #vidéo-surveillance #discrimination #surveillance (...)

    ##EFF

  • Oakland interdit la police prédictive et la surveillance biométrique
    https://www.nextinpact.com/lebrief/45717/oakland-interdit-police-predictive-et-surveillance-biometrique

    La ville d’Oakland, en Californie, a une fois de plus relevé la barre du contrôle communautaire de la surveillance policière, relève l’Electronic Frontier Foundation (EFF). La semaine dernière, son conseil municipal, qui avait déjà interdit la reconnaissance faciale, a voté à l’unanimité l’interdiction de la police prédictive, ainsi qu’une gamme de technologies de surveillance biométrique invasives à la vie privée. En juin dernier, la ville californienne de Santa Cruz était devenue la première ville (...)

    #biométrie #racisme #facial #prédiction #reconnaissance #vidéo-surveillance #discrimination #surveillance (...)

    ##EFF

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.

    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech
    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for (...)

    #algorithme #drone #biométrie #migration #facial #reconnaissance #vidéo-surveillance #COVID-19 #santé #surveillance (...)

    ##santé ##EuropeanDigitalRights-EDRi

  • This App Claims It Can Detect ’Trustworthiness.’ It Can’t
    https://www.vice.com/en/article/akd4bg/this-app-claims-it-can-detect-trustworthiness-it-cant

    Experts say an algorithm can’t determine whether you can be trusted by analyzing your face or voice. But that’s not stopping this company from trying. “Determine how trustworthy a person is in just one minute.” That’s the pitch from DeepScore, a Tokyo-based company that spent last week marketing its facial and voice recognition app to potential customers and investors at CES 2021. Here’s how it works : A person—seeking a business loan or coverage for health insurance, perhaps—looks into their (...)

    #algorithme #CCTV #biométrie #émotions #reconnaissance #finance #voix #HumanRightsWatch #PrivacyInternational (...)

    ##DeepScore

  • Bumble, Tinder and Match are banning accounts of Capitol rioters
    https://www.washingtonpost.com/technology/2021/01/16/siege-dating-app-bans

    Bumble, Tinder and others are freezing out rioters with help from law enforcement — and, in some cases, their own photos. Other app users have taken matters into their own hands by striking up conversations with potential rioters and relaying their information to the FBI. Tinder, Bumble and other dating apps are using images captured from inside the Capitol siege and other evidence to identify and ban rioters’ accounts, causing immediate consequences for those who participated as police move (...)

    #Match #Tinder #violence #délation #extrême-droite #SocialNetwork #FBI #biométrie #facial (...)

    ##reconnaissance

  • The FTC Forced a Misbehaving A.I. Company to Delete Its Algorithm
    https://onezero.medium.com/the-ftc-forced-a-misbehaving-a-i-company-to-delete-its-algorithm-124

    Could Google and Facebook’s algorithms be next ? In 2019, an investigation by NBC News revealed that photo storage app Ever had quietly siphoned billions of its users’ photos to train facial recognition algorithms. Pictures of people’s friends and families, which they had thought were private, were in fact being used to train algorithms that Ever then sold to law enforcement and the U.S. military. Two years later, the Federal Trade Commission has now made an example of parent company (...)

    #USArmy #algorithme #biométrie #données #facial #fraude #reconnaissance #scraping #FTC

  • Artificial intelligence : #Frontex improves its maritime surveillance

    Frontex wants to use a new platform to automatically detect and assess „risks“ on the seas of the European Union. Suspected irregular activities are to be displayed in a constantly updated „threat map“ with the help of self-learning software.

    The EU border agency has renewed a contract with Israeli company Windward for a „maritime analytics“ platform. It will put the application into regular operation. Frontex had initially procured a licence for around 800,000 Euros. For now 2.6 million Euros, the agency will receive access for four workstations. The contract can be extended three times for one year at a time.

    Windward specialises in the digital aggregation and assessment of vessel tracking and maritime surveillance data. Investors in the company, which was founded in 2011, include former US CIA director David Petraeus and former CEO’s of Thomson Reuters and British Petroleum. The former chief of staff of the Israeli military, Gabi Ashkenazi, is considered one of the advisors.

    Signature for each observed ship

    The platform is based on artificial intelligence techniques. For analysis, it uses maritime reporting systems, including position data from the AIS transponders of larger ships and weather data. These are enriched with information about the ship owners and shipping companies as well as the history of previous ship movements. For this purpose, the software queries openly accessible information from the internet.

    In this way, a „fingerprint“ is created for each observed ship, which can be used to identify suspicious activities. If the captain switches off the transponder, for example, the analysis platform can recognise this as a suspicuous event and take over further tracking based on the recorded patterns. It is also possible to integrate satellite images.

    Windward uses the register of the International Maritime Organisation (IMO) as its database, which lists about 70,000 ships. Allegedly, however, it also processes data on a total of 400,000 watercraft, including smaller fishing boats. One of the clients is therefore the UN Security Council, which uses the technology to monitor sanctions.

    Against „bad guys“ at sea

    The company advertises its applications with the slogan „Catch the bad guys at sea“. At Frontex, the application is used to combat and prevent unwanted migration and cross-border crime as well as terrorism. Subsequently, „policy makers“ and law enforcement agencies are to be informed about results. For this purpose, the „risks“ found are visualised in a „threat map“.

    Windward put such a „threat map“ online two years ago. At the time, the software rated the Black Sea as significantly more risky than the Mediterranean. Commercial shipping activity off the Crimea was interpreted as „probable sanction evasions“. Ship owners from the British Guernsey Islands as well as Romania recorded the highest proportion of ships exhibiting „risky“ behaviour. 42 vessels were classified as suspicious for drug smuggling based on their patterns.

    Frontex „early warning“ units

    The information from maritime surveillance is likely to be processed first by the „Risk Analysis Unit“ (RAU) at Frontex. It is supposed to support strategic decisions taken by the headquarters in Warsaw on issues of border control, return, prevention of cross-border crime as well as threats of a „hybrid nature“. Frontex calls the applications used there „intelligence products“ and „integrated data services“. Their results flow together in the „Common Integrated Risk Analysis Model“ (CIRAM).

    For the operational monitoring of the situation at the EU’s external borders, the agency also maintains the „Frontex Situation Centre“ (FSC). The department is supposed to provide a constantly updated picture of migration movements, if possible in real time. From these reports, Frontex produces „early warnings“ and situation reports to the border authorities of the member states as well as to the Commission and the Council in Brussels.

    More surveillance capacity in Warsaw

    According to its own information, Windward’s clients include the Italian Guardia di Finanza, which is responsible for controlling Italian territorial waters. The Ministry of the Interior in Rome is also responsible for numerous EU projects aimed at improving surveillance of the central Mediterranean. For the training and equipment of the Libyan coast guard, Italy receives around 67 million euros from EU funds in three different projects. Italian coast guard authorities are also installing a surveillance system for Tunisia’s external maritime borders.

    Frontex now wants to improve its own surveillance capacities with further tenders. Together with the fisheries agency, The agency is awarding further contracts for manned maritime surveillance. It has been operating such a „Frontex Aerial Surveillance Service“ (FASS) in the central Mediterranean since 2017 and in the Adriatic Sea since 2018. Frontex also wants to station large drones in the Mediterranean. Furthermore, it is testing Aerostats in the eastern Mediterranean for a second time. These are zeppelins attached to a 1,000-metre long line.

    https://digit.site36.net/2021/01/15/artificial-intelligence-frontex-improves-its-maritime-surveillance
    #intelligence_artificielle #surveillance #surveillance_maritime #mer #asile #migrations #réfugiés #frontières #AI #Windward #Israël #complexe_militaro-industriel #militarisation_des_frontières #David_Petraeus #Thomson_Reuters #British_Petroleum #armée_israélienne #Gabi_Ashkenazi #International_Maritime_Organisation (#IMO) #thread_map #Risk_Analysis_Unit (#RAU) #Common_Integrated_Risk_Analysis_Model (#CIRAM) #Frontex_Situation_Centre (#FSC) #Frontex_Aerial_Surveillance_Service (#FASS) #zeppelins

    ping @etraces

    • Data et nouvelles technologies, la face cachée du contrôle des mobilités

      Dans un rapport de juillet 2020, l’Agence européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (#EU-Lisa) présente l’intelligence artificielle (IA) comme l’une des « technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

      L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme Frontex ou EU-Lisa, ont été particulièrement actives dans l’#expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

      La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

      http://www.migreurop.org/article3021.html

      Pour télécharger le rapport :
      www.migreurop.org/IMG/pdf/note_12_fr.pdf

      ping @karine4 @rhoumour @_kg_ @i_s_

    • La #technopolice aux frontières

      Comment le #business de la #sécurité et de la #surveillance au sein de l’#Union_européenne, en plus de bafouer des #droits_fondamentaux, utilise les personnes exilées comme #laboratoire de recherche, et ce sur des #fonds_publics européens.

      On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux #frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces #dispositifs_technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un #marché colossal et profite grandement de l’échelle communautaire et de ses programmes de #recherche_et_développement (#R&D) comme #Horizon_2020.

      #Roborder – des essaims de #drones_autonomes aux frontières

      C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de #drones autonomes, fonctionnant et patrouillant ensemble. L’#intelligence_artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la #police_aux_frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des “#radio-fréquences non fiables”, c’est-à-dire à écouter les #communications et également à mesurer la #pollution_marine.
      Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en #Grèce, au #Portugal et en #Hongrie.

      Un #financement européen pour des usages « civils »

      Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la #Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de #Hellas (le #CERTH), en Grèce et comme le montre l’association #Homo_Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’#Irlande_du_Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).

      L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les #technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le #militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la #recherche_militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit “civil” de la #sécurité_intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la #répression_aux_frontières comme une matérialisation de la #militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.

      De plus, dans les faits, comme le montre The Intercept (https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder), une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.

      #IborderCtrl – détection d’#émotions aux frontières

      Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et #Lettonie.

      Il consiste notamment en de l’#analyse_d’émotions (à côté d’autres projets de #reconnaissances_biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur #visage passer au crible d’un #algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le #contrôle_aux_frontières » : si le #détecteur_de_mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un #interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 #micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la #neutralité_technologique à des politiques d’#exclusion et de #déshumanisation.

      Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au #secret_commercial. Ici encore, on voit que le champ “civil” et non “militaire” du projet est loin de représenter un garde-fou.

      Conclusion

      Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.

      Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne #Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une “efficacité” qui finalement ne profite qu’aux industries de la surveillance.

      Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !

      https://technopolice.fr/blog/la-technopolice-aux-frontieres

    • Artificial Intelligence - based capabilities for European Border and Coast Guard

      In 2019, Frontex, the European Border and Coast Guard Agency, commissioned #RAND Europe to carry out an Artificial intelligence (AI) research study.

      The purpose of the study was to provide an overview of the main opportunities, challenges and requirements for the adoption of AI-based capabilities in border managament. Frontex’s intent was also to find synergies with ongoing AI studies and initiatives in the EU and contribute to a Europe-wide AI landscape by adding the border security dimension.

      Some of the analysed technologies included automated border control, object recognition to detect suspicious vehicles or cargo and the use of geospatial data analytics for operational awareness and threat detection.

      As part of the study, RAND provided Frontex in 2020 with a comprehensive report and an executive summary with conclusions and recommendations.

      The findings will support Frontex in shaping the future landscape of AI-based capabilities for Integrated Border Management, including AI-related research and innovation projects which could be initiated by Frontex (e.g. under #EU_Innovation_Hub) or recommended to be conducted under the EU Research and Innovation Programme (#Horizon_Europe).

      https://frontex.europa.eu/media-centre/news/news-release/artificial-intelligence-based-capabilities-for-european-border-and-co

    • Pour les réfugiés, la #biométrie tout au long du chemin

      Par-delà les murs qui poussent aux frontières du monde depuis les années 1990, les réfugiés, migrants et demandeurs d’asile sont de plus en plus confrontés à l’extension des bases de #données_biométriques. Un « #mur_virtuel » s’étend ainsi à l’extérieur, aux frontières et à l’intérieur de l’espace Schengen, construit autour de programmes et de #bases_de_données.

      Des réfugiés qui paient avec leurs #iris, des migrants identifiés par leurs #empreintes_digitales, des capteurs de #reconnaissance_faciale, mais aussi d’#émotions… Réunis sous la bannière de la « #frontière_intelligente », ces #dispositifs_technologiques, reposant sur l’#anticipation, l’#identification et l’#automatisation du franchissement de la #frontière grâce aux bases de données biométriques, ont pour but de trier les voyageurs, facilitant le parcours des uns et bloquant celui des autres.

      L’Union européenne dispose ainsi d’une batterie de bases de données qui viennent compléter les contrôles aux frontières. Depuis 2011, une agence dédiée, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle, l’#EU-Lisa, a pour but d’élaborer et de développer, en lien avec des entreprises privées, le suivi des demandeurs d’asile.

      Elle gère ainsi plusieurs bases compilant des #données_biométriques. L’une d’elles, le « #Entry_and_Exit_System » (#EES), sera déployée en 2022, pour un coût évalué à 480 millions d’euros. L’EES a pour mission de collecter jusqu’à 400 millions de données sur les personnes non européennes franchissant les frontières de l’espace Schengen, afin de contrôler en temps réel les dépassements de durée légale de #visa. En cas de séjour prolongé devenu illégal, l’alerte sera donnée à l’ensemble des polices européennes.

      Se brûler les doigts pour ne pas être enregistré

      L’EU-Lisa gère également le fichier #Eurodac, qui consigne les empreintes digitales de chacun des demandeurs d’asile de l’Union européenne. Utilisé pour appliquer le #règlement_Dublin III, selon lequel la demande d’asile est déposée et traitée dans le pays européen où le migrant a été enregistré la première fois, il entraîne des stratégies de #résistance.

      « On a vu des migrants refuser de donner leurs empreintes à leur arrivée en Grèce, ou même se brûler les doigts pour ne pas être enregistrés dans Eurodac, rappelle Damien Simonneau, chercheur à l’Institut Convergences Migrations du Collège de France. Ils savent que s’ils ont, par exemple, de la famille en Allemagne, mais qu’ils ont été enregistrés en Grèce, ils seront renvoyés en Grèce pour que leur demande y soit traitée, ce qui a des conséquences énormes sur leur vie. » La procédure d’instruction dure en effet de 12 à 18 mois en moyenne.

      La collecte de données biométriques jalonne ainsi les parcours migratoires, des pays de départs jusqu’aux déplacements au sein de l’Union européenne, dans un but de limitation et de #contrôle. Pour lutter contre « la criminalité transfrontalière » et « l’immigration clandestine », le système de surveillance des zones frontières #Eurosur permet, via un partage d’informations en temps réel, d’intercepter avant leur arrivée les personnes tentant d’atteindre l’Union européenne.

      Des contrôles dans les pays de départ

      Pour le Transnational Institute, auteur avec le think tank Stop Wapenhandel et le Centre Delàs de plusieurs études sur les frontières, l’utilisation de ces bases de données témoigne d’une stratégie claire de la part de l’Union européenne. « Un des objectifs de l’expansion des #frontières_virtuelles, écrivent-ils ainsi dans le rapport Building Walls (https://www.tni.org/files/publication-downloads/building_walls_-_full_report_-_english.pdf), paru en 2018, est d’intercepter les réfugiés et les migrants avant même qu’ils n’atteignent les frontières européennes, pour ne pas avoir à traiter avec eux. »

      Si ces techniques permettent de pré-trier les demandes pour fluidifier le passage des frontières, en accélérant les déplacements autorisés, elles peuvent également, selon Damien Simonneau, avoir des effets pervers. « L’utilisation de ces mécanismes repose sur l’idée que la #technologie est un facilitateur, et il est vrai que l’#autonomisation de certaines démarches peut faciliter les déplacements de personnes autorisées à franchir les frontières, expose-t-il. Mais les technologies sont faillibles, et peuvent produire des #discriminations. »

      Ces #techniques_virtuelles, aux conséquences bien réelles, bouleversent ainsi le rapport à la frontière et les parcours migratoires. « Le migrant est confronté à de multiples points "frontière", disséminés un peu partout, analyse Damien Simonneau. Cela crée des #obstacles supplémentaires aux parcours migratoires : le contrôle n’est quasiment plus lié au franchissement d’une frontière nationale, il est déterritorialisé et peut se produire n’importe où, en amont comme en aval de la frontière de l’État. »

      Ainsi, la « politique d’#externalisation de l’Union européenne » permet au contrôle migratoire de s’exercer dans les pays de départ. Le programme européen « #SIV » collecte par exemple dès leur formulation dans les #consulats les données biométriques liées aux #demandes_de_visas.

      Plus encore, l’Union européenne délègue une partie de la gestion de ses frontières à d’autres pays : « Dans certains États du Sahel, explique Damien Simonneau, l’aide humanitaire et de développement est conditionnée à l’amélioration des contrôles aux frontières. »

      Un programme de l’Organisation internationale pour les migrations (OIM), le programme #MIDAS, financé par l’Union européenne, est ainsi employé par 23 pays, majoritairement en Afrique, mais aussi en Asie et en Amérique. Son but est de « collecter, traiter, stocker et analyser les informations [biométriques et biographiques] des voyageurs en temps réel » pour aider les polices locales à contrôler leurs frontières. Mais selon le réseau Migreurop, ces données peuvent également être transmises aux agences policières européennes. L’UE exerce ainsi un droit de regard, via Frontex, sur le système d’information et d’analyse de données sur la migration, installé à Makalondi au Niger.

      Des réfugiés qui paient avec leurs yeux

      Un mélange des genres, entre organisations humanitaires et États, entre protection, logistique et surveillance, qui se retrouve également dans les #camps_de_réfugiés. Dans les camps jordaniens de #Zaatari et d’#Azarq, par exemple, près de la frontière syrienne, les réfugiés paient depuis 2016 leurs aliments avec leurs iris.

      L’#aide_humanitaire_alimentaire distribuée par le Programme alimentaire mondial (PAM) leur est en effet versée sur un compte relié à leurs données biométriques. Il leur suffit de passer leurs yeux dans un scanner pour régler leurs achats. Une pratique qui facilite grandement la gestion #logistique du camp par le #HCR et le PAM, en permettant la #traçabilité des échanges et en évitant les fraudes et les vols.

      Mais selon Léa Macias, anthropologue à l’EHESS, cela a aussi des inconvénients. « Si ce paiement avec les yeux peut rassurer certains réfugiés, dans la mesure où cela les protège contre les vols, développe-t-elle, le procédé est également perçu comme une #violence. Les réfugiés ont bien conscience que personne d’autre au monde, dans une situation normale, ne paie ainsi avec son #corps. »

      Le danger de la fuite de données

      La chercheuse s’inquiète également du devenir des données ainsi collectées, et se pose la question de l’intérêt des réfugiés dans ce processus. « Les humanitaires sont poussés à utiliser ces nouvelles technologies, expose-t-elle, qui sont vues comme un gage de fiabilité par les bailleurs de fonds. Mais la #technologisation n’est pas toujours dans l’intérêt des réfugiés. En cas de fuite ou de hackage des bases de données, cela les expose même à des dangers. »

      Un rapport de Human Rights Watch (HRW) (https://www.hrw.org/news/2021/06/15/un-shared-rohingya-data-without-informed-consent), publié mardi 15 juin, alerte ainsi sur des #transferts_de_données biométriques appartenant à des #Rohingyas réfugiés au Bangladesh. Ces données, collectées par le Haut-commissariat aux réfugiés (HCR) de l’ONU, ont été transmises par le gouvernement du Bangladesh à l’État birman. Si le HCR a réagi (https://www.unhcr.org/en-us/news/press/2021/6/60c85a7b4/news-comment-statement-refugee-registration-data-collection-bangladesh.html) en affirmant que les personnes concernées avaient donné leur accord à ce #transfert_de_données pour préparer un éventuel retour en Birmanie, rien ne permet cependant de garantir qu’ils seront bien reçus si leur nom « bipe » au moment de passer la frontière.

      https://www.rfi.fr/fr/technologies/20210620-pour-les-r%C3%A9fugi%C3%A9s-la-biom%C3%A9trie-tout-au-long-du-chemin

      #smart_borders #tri #catégorisation #déterritorialisation #réfugiés_rohingyas

      –---

      Sur les doigts brûlés pour ne pas se faire identifier par les empreintes digitales, voir la scène du film Qu’ils reposent en paix de Sylvain George, dont j’ai fait une brève recension :

      Instant tragique : ce qu’un migrant appelle la « prière ». Ce moment collectif où les migrants tentent de faire disparaître leurs empreintes digitales. Étape symbolique où ils se défont de leur propre identité.

      https://visionscarto.net/a-calais-l-etat-ne-peut-dissoudre

  • Vanessa Codaccioni : « L’État nous pousse à agir comme la police »
    https://reporterre.net/Vanessa-Codaccioni-L-Etat-nous-pousse-a-agir-comme-la-police

    Promouvoir la surveillance de tous par tous. Voilà ce que veut l’État, comme l’explique Vanessa Codaccioni dans son dernier ouvrage, « La société de vigilance ». Et en plus d’appeler les citoyens à la délation, il les surveille toujours plus en renforçant les pouvoirs de la police, comme l’illustre la loi de « sécurité globale ». Ce samedi 16 janvier, près d’une centaine de marches des libertés devraient à nouveau avoir lieu en France, contre la proposition de loi relative à la « sécurité globale ». La (...)

    #algorithme #CCTV #activisme #biométrie #écologie #féminisme #aérien #facial #législation #reconnaissance #religion #vidéo-surveillance #BlackLivesMatter #délation #Islam #surveillance (...)

    ##syndicat