• I finanziamenti europei al Marocco per bloccare le persone, a tutti i costi

    In questi anni l’Unione europea ha garantito alle polizie marocchine mezzi, “formazione” e strumenti di identificazione. Forniture milionarie, poco trasparenti, di cui hanno beneficiato quelle stesse guardie di frontiera che il 24 giugno hanno causato la morte di oltre 20 persone. Anche qui Frontex ha un ruolo decisivo

    “Un partner di riferimento per l’Unione europea, un modello che altri potranno seguire per la sua capacità di collaborare con le nostra agenzie”. Così la Commissione europea descriveva nell’ottobre 2021 l’attività delle autorità marocchine nel campo della “gestione” del fenomeno migratorio. Un’immagine che stride con quella dei corpi stesi a terra, immersi in pozze di sangue, di chi la mattina presto del 24 giugno è stato brutalmente respinto mentre tentava di far ingresso nell’enclave spagnola di Melilla. Almeno 23 i morti, molti di più secondo le Ong indipendenti, in prevalenza persone originarie di Sudan e Sud-Sudan, centinaia i feriti e decine gli arresti tra le circa 2mila persone che hanno tentato di scalare la triplice barriera metallica che separa il territorio marocchino dalla città spagnola. Ma la violenza perpetrata ai danni dei rifugiati sia dalle forze di polizia marocchina sia dalla Guardia civile spagnola va contestualizzata in un quadro più ampio. I soldi dell’Ue hanno finanziato quella violenza.

    Del bilancio pluriennale 2014-2020 circa 370 milioni di euro sono stati assegnati al governo di Rabat per la gestione del fenomeno migratorio, di cui 238 derivanti direttamente dal Fondo fiduciario dell’Ue per l’Africa (Eutf): l’80% è stato destinato a programmi di sostegno, supporto e gestione dei confini con solo le “briciole” per la protezione delle persone in transito (circa l’11%) e per l’integrazione socio-economica di chi “sceglie” di restare in Marocco (7,5%). Cifre stanziate con il consueto ritornello della “lotta contro l’immigrazione illegale” che, come su tanti altri confini esterni dell’Ue giustifica il blocco del flusso delle persone in transito e l’impossibilità di vedersi riconosciuto il diritto d’asilo. Una strategia che, nel caso del Marocco, getta le prime basi nel 2001 quando la rotta del Mediterraneo centrale comincia a vedere i primi flussi. L’Italia è precursore con un finanziamento di 10 miliardi di lire, tra 1999 e il 2000, per finanziare secondo quanto ricostruito dal progetto Sciabaca&Oruka di Asgi l’acquisto di mezzi, strumenti ed equipaggiamento che favoriscono le forze di polizia marocchina nell’attività di contrasto all’immigrazione “clandestina”.

    Come ricostruito da Statewatch, gruppo di ricerca indipendente, a livello europeo invece dal 2001 al 2010 vengono stanziati circa 74,6 milioni di euro per sei progetti riguardanti la sicurezza delle frontiere. Tra questi sei progetti almeno due meritano attenzione. Il “Seahorse network” (costo totale di circa 2,5 milioni di euro, con un contributo Ue pari a più di 1,9 milioni) che ha fornito fondi per la creazione di una “rete regionale sicura per lo scambio di informazioni sull’immigrazione irregolare”. Statewatch, grazie ai documenti forniti dalla Direzione generale per la cooperazione e lo sviluppo internazionale della Commissione (Dg Devco) ha ricostruito che la rete ha sede a Gran Canaria ed è collegata a quella della Guardia civil spagnola e l’Agenzia Frontex. E poi un progetto da più di 67 milioni di euro fornito tra il 2007 e il 2010 direttamente al ministero dell’Interno marocchino: non si conoscono i contenuti del progetto, in quanto l’accesso ai documenti è stato negato per “tutela dell’interesse pubblico che è prevalente alla necessità di divulgazione” e soprattutto non esistono documenti di valutazione. “Il fatto che l’Ue non abbia intrapreso una valutazione è sorprendente dati i rigorosi standard di audit e valutazione che dovrebbero essere applicata ai finanziamenti”.

    All’aumento dei flussi corrisponde una crescita dei finanziamenti. Non a caso tra il 2013-2018, sempre da quanto ricostruito da Statewatch, i finanziamenti si sono concentrati sull’integrazione delle persone già presenti sul territorio complice un cambio di rotta delle autorità marocchine che hanno promosso due campagne di regolarizzazione per le persone prive di documenti (nel 2013 e nel 2016) e un tentativo di garantire sostegno a rifugiati e richiedenti asilo. I circa 61,5 milioni di euro stanziati dall’Ue hanno di fatto “compensato il mancato coinvolgimento delle autorità marocchine nella formulazione e nell’attuazione di una vera politica di integrazione”. Ma l’intervento umanitario europeo è solo una breve parentesi. Tra il 2017 e il 2018 gli attraversamenti “irregolari” nel Mediterraneo occidentale aumentano del 40% e le autorità marocchine dichiarano di aver fermato circa 76mila persone. Cifre da prendere con le pinze ma che giustificano, secondo i legislatori europei, la ripresa dei fondi destinati a Rabat. Questo nonostante, a livello assoluto, gli attraversamenti irregolari diminuirono del 25% rispetto al 2017 e raggiunsero il numero più basso dei cinque anni precedenti (150mila in totale). Ma poco conta, come visto anche su altre frontiere, non è una questione di numeri.

    Il 20 agosto 2018 attraverso il “Programma di gestione delle frontiere per la regione del Maghreb (BMP – Maghreb) vengono destinati 30 milioni di euro per “proteggere, monitorare e gestire le frontiere” del Marocco in un più ampio progetto multinazionale, dal budget totale di 55 milioni di euro, in cui figura tra i partner esecutivi anche il ministero dell’Interno italiano per alcune azioni in Tunisia. Si va dal potenziamento delle infrastrutture informatiche per “raccolta, archiviazione e identificazione della biometria digitale” e l’acquisizione di mezzi aerei e navali per il controllo pre-frontaliero. Il 13 dicembre 2018 vengono poi destinati 44 milioni di euro per il progetto “Soutien à la gestion intégrée des frontières et de la migration au Maroc” che mira a “rafforzare le capacità delle istituzioni marocchine a protezione, sorveglianza e controllo delle frontiere”: per un periodo di 36 mesi e gestito dalle autorità spagnole per “migliorare le capacità delle autorità marocchine di intercettare i valichi di frontiera irregolari e svolgere attività di ricerca e soccorso in mare”. A questo si aggiunge un programma per il contrasto al “contrabbando e al traffico di esseri umani” con un finanziamento pari a 70 milioni di euro. Nel dicembre 2019 nonostante gli attraversamenti registrati da Frontex sono la metà rispetto all’anno precedente (appena 23.969), l’Ue finanzia più di 101 milioni di euro nuovamente per “rafforzare le capacità delle istituzioni marocchine, in particolare per il ministero dell’Interno a contrastare il traffico di migranti e la tratta degli esseri umani incluso un sostegno per la gestione delle frontiere del Paese”.

    Nonostante queste ingenti cifre la trasparenza è negata. Per nessuno dei progetti di gestione delle frontiere le istituzioni europee hanno fornito accesso ai documenti tirando in ballo nuovamente la “tutela dell’interesse pubblico in materia di relazioni internazionali”. Nel novembre 2019 i ricercatori di Statewatch commentavano “profeticamente” questo sostegno: “È probabile che le conseguenze di questo approccio siano terribili dato che la cooperazione del Marocco in materia di sicurezza e sorveglianza delle frontiere comporta un costo molto elevato in termini di violazioni dei diritti umani commesse dalle forze di sicurezza marocchine contro migranti, rifugiati e persone richiedenti asilo”.

    Eccoli i frutti della politica di esternalizzazione europea in Marocco. “Video e fotografie mostrano corpi sparsi per terra in pozze di sangue, forze di sicurezza marocchine che prendono a calci e picchiano le persone; la Guardia civil spagnola che lancia gas lacrimogeni contro uomini aggrapparti alle recinzioni” spiega Judith Sunderland, vicedirettrice per l’Europa e l’Asia di Human rights watch che spingono l’Ong a chiedere una ferma condanna da parte dei funzionari di Spagna, Marocco e Unione europea e “garantire indagini efficaci e imparziali per portare giustizia a coloro che hanno perso la vita”. Il numero delle persone morte non è ancora chiaro. Secondo Caminando Fronteras, organizzazione spagnola, sarebbero 37 e decine di feriti. Ma le autorità marocchine stanno già facendo pulizia dei crimini commessi: l’Association Marocaine des Droits Humains (Amdh), che si occupa di tutelare i diritti umani nel Paese, ha pubblicato su Twitter due fotografie di quelle che si stima fossero tra le 16 e le 21 tombe scavate nel cimitero di Sidi Salem, alla periferia di Nador, la città marocchina oltre confine da Melilla. Hrw ne ha potuto confermare la veridicità identificando almeno 10 tombe individuali scavate.

    Di fronte all’orrore e alla tragedia, la strada è già tracciata. Il documento di “messa a terra” delle attività in Marocco previste dal Patto per le migrazioni e l’asilo, presentato nel settembre 2020 di fronte alla Commissione europea, prevede il sostegno finanziario per il periodo 2021-2027 per implementare, nuovamente, il controllo dei confini e soprattutto “sostenere i rimpatri volontari dei cittadini stranieri dal Marocco ai loro Paesi d’origine” oltre che l’efficientamento delle procedure per il rimpatrio dei cittadini marocchini che non hanno titolo per stare sul territorio europeo. Infine nel documento si chiarisce l’importanza del “dialogo strategico” che le autorità marocchine hanno mantenuto con Frontex che apre la possibilità della firma di un accordo operativo con l’Agenzia che sorveglia le frontiere esterne europee. Non cambia la strategia, nonostante tra gennaio e maggio 2022 siano stati appena 3.965 attraversamenti irregolari registrati nel Mediterraneo occidentale. L’invasione non c’è: i morti distesi nelle pozze di sangue a Melilla svelano nuovamente il volto di un’Europa che respinge e delega il lavoro sporco alle polizie di Paesi autocratici.

    https://altreconomia.it/i-finanziamenti-europei-al-marocco-per-bloccare-le-persone-a-tutti-i-co

    #Maroc #asile #migrations #réfugiés #externalisation #frontières #contrôles_frontaliers #complexe_militaro-industriel #Frontex #Fonds_fiduciaire #Italie #Seahorse_network #Seahorse #programme_de_gestion_des_frontières_de_la_région_du_Maghreb #Border_Management_Programme_for_the_Maghreb_region (#BMP-Maghreb) #Tunisie #biométrie #technologie #identification #Soutien_à_la_gestion_intégrée_des_frontières_et_de_la_migration_au_Maroc

  • Marcq-en-Barœul, Wasquehal, Hem parmi les villes les plus cambriolées : la vidéosurveillance ne sert à rien
    https://actu.fr/hauts-de-france/marcq-en-baroeul_59378/marcq-en-baroeul-parmi-les-villes-les-plus-cambriolees-les-moyens-deployes-pour

    Marcq-en-Barœul (Nord) est apparue dans le top 20 des villes les plus cambriolées de France, tout comme Wasquehal. En réponse, la Ville détaille tous les moyens déployés pour sécuriser le territoire.

    Amer constat, pour les communes de la métropole lilloise Wasquehal et Marcq-en-Barœul, qui apparaissent dans le top 20 des villes https://www.lefigaro.fr/actualite-france/cambriolages-quels-sont-les-vrais-risques-dans-votre-ville-20220531 de plus de 20 000 habitants les plus cambriolées de France, selon un classement du Figaro. Interrogée sur ces données, découlant des chiffres du ministère de l’Intérieur, la Ville de Marcq-en-Barœul, par la voix de son adjoint à la tranquillité publique Alain Chastan, semble pourtant faire de la sécurité une priorité.

    Entre un dispositif de vidéosurveillance qui n’a cessé de s’étendre depuis une dizaine d’années, une police municipale active de jour comme de nuit, et une mairie à l’écoute de ses administrés, la réalité du terrain paraît en inadéquation avec la 20e place de la ville au classement. Précisions.

    L’objectif 300 caméras d’ici la fin du mandat
    La vidéosurveillance a été installée sur le territoire aussitôt qu’en 2010, explique Alain Chastan, Marcq-en-Barœul faisant office de précurseur à l’échelle de la métropole de Lille. À l’époque, une soixantaine de caméras fleurissent dans les rues ; elles sont aujourd’hui 210, avec l’objectif d’en avoir 300 d’opérationnelles d’ici la fin du mandat. « Et nous avons pris l’initiative de mettre des hommes, derrière les caméras, 7 jours/7, 365 jours de l’année », détaille l’élu. Ces « vidéo-opérateurs » sont aussi bien des policiers municipaux que des « gardes urbains », nom donné aux agents de surveillance de la voie publique (ASVP).

    Les 21 policiers municipaux, armés en tout temps, sont répartis dans deux équipes de jour, et une équipe de nuit. Cette dernière « travaille de 21h30 à 7h30 ». Une présence téléphonique est assurée 24h/24. 

    Il ne faut pas que les gens hésitent à nous appeler. Plutôt que de relayer des informations sur Facebook, il faut nous appeler pour une suspicion quelconque, afin qu’une patrouille se déplace. Et s’il ne se passe finalement rien, ce n’est pas grave !
    Alain Chastan,Adjoint à la tranquillité publique à Marcq-en-Barœul.

    Plus de 600 habitations surveillées pendant les vacances
    Pour les cambriolages, il faut savoir que la police municipale ne peut intervenir qu’en cas de flagrant délit. Autrement, c’est du ressort de la police nationale.

    Toutefois, les services de la Ville se montrent particulièrement attentifs aux demandes des habitants, notamment lors de la période estivale. « Nous participons à l’opération tranquillité vacances, principalement en juillet-août, et deux à trois patrouilles dans la semaine peuvent être opérées [dans certains quartiers] ». Pour les résidents, il suffit de notifier leur absence à la mairie. Jusqu’à 609 habitations ont été surveillées, dans ce cadre. 

    En 2021, la police municipale de Marcq-en-Barœul a réalisé plus de 3 000 interventions, quand 13 500 appels lui ont été passés. Elle a procédé à 88 interpellations. 

    #surveillance #algorithme #vidéo-surveillance #biométrie #facial #géolocalisation #police #reconnaissance #web #france #cambriolages

  • A Face Search Engine Anyone Can Use Is Alarmingly Accurate - The New York Times
    https://www.nytimes.com/2022/05/26/technology/pimeyes-facial-recognition-search.html

    The New York Times used PimEyes on the faces of a dozen Times journalists, with their consent, to test its powers.

    #PimEyes found photos of every person, some that the journalists had never seen before, even when they were wearing sunglasses or a mask, or their face was turned away from the camera, in the image used to conduct the search.

    #vie_privée

  • En quoi la vidéosurveillance algorithmique est-elle illégale ?
    https://www.laquadrature.net/2022/04/07/en-quoi-la-videosurveillance-algorithmique-est-elle-illegale

    La vidéosurveillance algorithmique (VSA) s’installe dans nos villes, en toute opacité et surtout, en toute illégalité. Depuis plusieurs années, nous tentons de lutter contre ces dispositifs, notamment en les attaquant devant les tribunaux. Nous pensons…

    #Surveillance

  • Hilarant ! : l’intelligence artificielle devrait contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030 Par Jean-François Noulet - RTBF

    Proximus lance « ADA » pour miser sur l’intelligence artificielle et la cybersécurité
    https://www.rtbf.be/article/proximus-lance-ada-pour-miser-sur-lintelligence-artificielle-et-la-cybersecurit
    L’intelligence artificielle et la cybersécurité sont au cœur du développement actuel de nos économies. L’intelligence artificielle, ce sont des en quelque sorte des ordinateurs robots, alimentés par des données numériques qui permettent de développer de nouvelles solutions dans de nombreux domaines, tels que la santé, l’énergie, la mobilité, notamment. Cette exploitation de quantités gigantesques données numériques va de pair avec un risque pour la sécurité informatique. La cybersécurité est un enjeu. C’est logique, les risques de cyberattaques augmentent avec l’accroissement de l’utilisation des données numériques. C’est pour se renforcer sur ces deux tableaux et devenir un acteur de premier ordre que Proximus lance « ADA », une filiale dédiée à l’intelligence artificielle et à la cybersécurité.


    Aider la société belge à relever les défis informatiques
    ADA, c’est d’abord un hommage et un clin d’œil à Ada Lovelace, une mathématicienne et écrivaine anglaise de la première moitié du 19e siècle. Elle est considérée comme une pionnière de la programmation informatique.

    Pour créer sa filiale, qui démarrera ses activités le 1er avril, Proximus est parti d’un constat : l’intelligence artificielle et la cybersécurité gagneront en importance dans les années à venir. Que ce soit pour aider à réduire la consommation d’énergie, prédire des erreurs dans les systèmes techniques, améliorer la détection de fraudes, l’intelligence devrait, selon les chiffres cités par Proximus, contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030. En Belgique, cela représenterait une contribution de 330 millions d’euros à l’horizon 2024, selon Proximus.

    Parallèlement au développement de cette nouvelle économie numérique, la cybersécurité est essentielle pour lutter contre les cyberattaques et protéger les activités et les données des particuliers et des entreprises.

    Dans ces domaines où les données sont importantes, Proximus estime être « bien placé pour y jouer un rôle de plus en plus important ». Le groupe belge a développé ces dernières années de l’expertise en la matière, tant en Belgique qu’à l’étranger, via certaines de ses filiales. Ainsi, TeleSign, spécialisé dans les services d’identité digitale et des solutions logicielles « est un partenaire de confiance pour 8 des 10 plus grandes entreprises du monde », affirme Proximus. BICS, autre filiale, est un leader mondial dans le domaine des communications digitales.

    La création de Proximus ADA devrait, selon Guillaume Boutin, le CEO de Proximus, « permettre d’accélérer cette position de leader » et « contribuer à faire de la société belge une société prête au futur ».

    Pour permettre à ce projet de se développer, le CEO de Proximus insiste sur la nécessité d’avoir « des réseaux de dernière génération » pour « permettre cette sécurisation des données ». Avoir des réseaux de « très haut débit » est, explique le CEO, essentiel. Il rappelle l’importance du déploiement de la fibre optique. 

    Miser sur les talents belges
    A son lancement, ADA emploiera une cinquantaine de collaborateurs. L’objectif est d’arriver à 150 personnes d’ici trois ans. Ce que recherche Proximus, ce sont des « experts locaux ». L’idée est de nouer « des collaborations avec le tissu éducatif belge », selon Guillaume Boutin pour qui il s’agit de « former et retenir les talents belges » pour renforcer les équipes d’experts de Proximus. Ingénieurs, spécialistes en cybersécurité et autres en formation sont donc dans le viseur des recruteurs du groupe de télécommunication.

    Ce que Proximus espère, c’est placer la Belgique au centre de l’échiquier mondial dans les deux domaines clés de la cybersécurité et de l’intelligence artificielle.

     #intelligence_artificielle #humour #algorithme #surveillance #ia #biométrie #vidéo-surveillance #bigdata #santé #technologie #facial #en_vedette #ai #transhumanisme

  • #Canada : Les sonnettes intelligentes Google Nest sont frileuses
    https://ici.radio-canada.ca/nouvelle/1863406/google-nest-froid-batterie

    L’hiver canadien est rude pour les nouvelles sonnettes intelligentes Google Nest. L’appareil, qui permet aux utilisateurs et utilisatrices de voir qui est à leur porte d’entrée à l’aide d’un téléphone intelligent, tolère mal le froid.

    Dans une note publiée cette semaine, Google mentionne que la pile lithium-ion de sa sonnette ne peut être rechargée sous 0 degrés Celsius. Elle peut toutefois continuer de fonctionner jusqu’à -20 degrés Celsius.

    Cette mise à jour survient après que bon nombre d’internautes eurent signalé sur les forums de Google que la pile de leur Google Nest s’était déchargée plus rapidement que d’habitude cet hiver, même lorsque le gadget était relié au câblage de leur maison.


    Les sonnettes Google Nest peuvent être installées avec ou sans câble. Dans les deux cas, la sonnette fonctionne avec l’énergie de sa pile. Photo : Capture d’écran de YouTube

    Le géant technologique explique que les fils électriques reliant les sonnettes aux domiciles ne chargent pas directement l’appareil.

    Au lieu de cela, la pile est rechargée au compte-gouttes par le courant qui passe par les câbles, et la sonnette fonctionne à partir de la charge de la pile.

    Par temps froid, Google recommande donc aux propriétaires de rentrer leur sonnette intelligente à l’intérieur afin de la recharger.

    #croyance en #Google #religion des #gafam #surveillance #algorithme #apple #domination #smartphone #internet #profiling #gafam #biométrie #facial #géolocalisation #géolocalisation

  • Tecnologie per il controllo delle frontiere in Italia: identificazione, riconoscimento facciale e finanziamenti europei


    Executive summary

    L’utilizzo documentato di un sistema di riconoscimento facciale da parte dell’amministrazione comunale di Como o da parte della Polizia di Stato italiana ha aperto anche in Italia il dibattito su una tecnologia che all’estero, già da tempo, si critica per la sua inaccuratezza algoritmica e per la poca trasparenza. Un tema sicuramente preoccupante per tutti ma che certamente assume caratteristiche ancor più pericolose quando interessa gruppi o individui particolarmente vulnerabili come migranti, rifugiati e richiedenti asilo. In questo caso i dati e le informazioni sono processati da parte di agenzie governative a fini di sorveglianza e di controllo, con tutele assai minori rispetto ai cittadini europei ed italiani. Ciò comporta un grande rischio per queste persone poiché le procedure di identificazione al loro arrivo in Italia, effettuate all’interno degli hotspot, rischiano di essere un’arma a doppio taglio per la loro permanenza nel nostro Paese (o in Europa), determinando uno stato di sorveglianza continuativa a causa della loro condizione. Ancora una volta alcune categorie di persone sono costrette ad essere “banco di prova” per la sperimentazione di dispositivi di controllo e sorveglianza, a dimostrazione che esistono e si reiterano rapporti di potere anche attraverso la tecnologia, portando alla creazione di due categorie distinte: chi sorveglia e chi è sorvegliato.

    Da questa ricerca emerge che le procedure di identificazione e categorizzazione dei migranti, rifugiati o richiedenti asilo fanno ampio utilizzo di dati biometrici—la polizia italiana raccoglie sia le impronte digitali che la foto del loro volto—ma non è sempre facile comprendere in che modo vengano applicate. Nel momento in cui viene effettuata l’identificazione, le categorie sopra citate hanno ben poche possibilità di conoscere appieno il percorso che faranno i loro dati personali e biometrici, nonché di opporsi al peso che poi questo flusso di informazioni avrà sulla loro condizione in Italia e in tutta l’Unione Europea. Quest’ultima, infatti, promuove da alcuni anni la necessità di favorire l’identificazione dei migranti, stranieri e richiedenti asilo attraverso un massiccio utilizzo di tecnologie: a partire dal mare, pattugliato con navi e velivoli a pilotaggio remoto che “scannerizzano” i migranti in arrivo; fino all’approdo sulla terraferma, dove oltre all’imposizione dell’identificazione e del fotosegnalamento i migranti hanno rischiato di vedersi puntata addosso una videocamera “intelligente”.

    Ampio spazio è lasciato alla trattazione di come lo stato italiano utilizzi la tecnologia del riconoscimento facciale già da alcuni anni, senza che organizzazioni indipendenti o professionisti possano controllare il suo operato. Oltre alla mancata trasparenza degli algoritmi che lo fanno funzionare, infatti, non sono disponibili informazioni chiare sul numero di persone effettivamente comprese all’interno del database che viene utilizzato proprio per realizzare le corrispondenze tra volti, AFIS (acronimo di Automated Fingerprint Identification System).

    Nelle intenzioni della polizia italiana, infatti, c’era l’impiego di un sistema di riconoscimento facciale, SARI Real-Time, per riconoscere in tempo reale l’identità delle persone a bordo di un’imbarcazione durante le fasi di sbarco sulle coste italiane. Il sistema SARI Real-Time, acquistato originariamente per l’utilizzo durante manifestazioni ed eventi pubblici, è stato reso inutilizzabile a seguito della pronuncia negativa del Garante della Privacy: rischierebbe di introdurre una sorveglianza di massa ingiustificata. La decisione del Garante tutela quindi non solo coloro che vivono nel nostro paese ma anche chi, in una situazione di estrema vulnerabilità, arriva sulle nostre coste dopo un viaggio interminabile e si vede sottoposto a un controllo sproporzionato ancor prima di ricevere supporto medico e valutazione dello status legale.

    Come Centro Hermes per la Trasparenza e i Diritti Umani Digitali dal 2011 ci interroghiamo sul funzionamento e sullo scopo delle innovazioni in campo tecnologico, analizzandole non solo da un punto di vista tecnico ma anche attraverso la lente dei diritti umani digitali. Negli ultimi anni la datificazione della società attraverso la raccolta indiscriminata di dati personali e l’estrazione di informazioni (e di valore) relative al comportamento e alle attività svolte da ognuno di noi sono il tema centrale di ricerca, analisi e advocacy dell’associazione. Siamo convinti infatti che vada messa in dubbio non solo la tecnologia digitale creata al presunto scopo di favorire il progresso o di dare una risposta oggettiva a fenomeni sociali complessi, ma anche il concetto di tecnologia come neutra e con pressoché simili ripercussioni su tutti gli individui della società. È importante a nostro parere che qualunque discorso sulla tecnologia racchiuda in sé una più ampia riflessione politica e sociologica, che cerchi di cogliere la differenza tra chi agisce la tecnologia e chi la subisce.

    Principali risultati:

    https://protecht.hermescenter.org
    #rapport #Hermes #frontières #Italie #reconnaissance_faciale #réfugiés #asile #migrations #contrôles_frontaliers #identification #financements_européens #technologie #complexe_militaro-industriel #Côme #surveillance #biométrie #données_biométriques #catégorisation #photos #empreintes_digitales #AFIS #algorythmes #Automated_Fingerprint_Identification_System #SARI_Real-Time #database #base_de_données

    sur la mise en place de reconnaissance faciale à Côme:
    https://seenthis.net/messages/859963

    ping @etraces

    • Il casellario delle identità AFIS: una banca dati discriminatoria usata dalle forze di polizia

      AFIS è un database nel quale sono raccolti i dati (impronte digitali e foto) di persone italiane e straniere sottoposte a procedimenti penali e dei soli cittadini non europei nell’ambito delle procedure amministrative di rinnovo e conversione del permesso di soggiorno.

      In applicazione di un decreto del Ministero dell’Interno del 24 maggio 2017, i dati amministrativi dei cittadini e delle cittadine extra UE vengono inseriti, confrontati e trattati come dati di polizia per il solo fatto di appartenere a persone straniere, con l’ulteriore paradosso che questi dati non vengono cancellati neanche quando le stesse ottengono la cittadinanza italiana.
      Potere di accesso ai dati degli stranieri senza motivazione?

      ASGI, dopo una serie di accessi agli atti e di accessi civici generalizzati al Ministero dell’Interno, ha rilevato che:

      i cittadini stranieri non possono cancellare i loro dati se non dopo 20 anni dal loro inserimento anche se nel frattempo la loro condizione giuridica è mutata, i loro dati sono verificati e trattati con pochissime limitazioni e da un alto numero di autorità amministrative.

      – I dati delle persone straniere sono confrontati sistematicamente con migliaia di altri dati senza motivazioni specifiche al fine di essere utilizzati per finalità di polizia ed indagine.

      - In particolare i confronti delle foto sono esposti ad un alto tasso di errori a causa della mancanza di un algoritmo in grado di mettere a confronto immagini di cittadini con la pelle di colore scuro.

      - I dati contenuti in AFIS appartenenti a cittadini con la cittadinanza non europea sono la netta maggioranza.

      Diversità di trattamento per milioni di persone

      La Direzione centrale anticrimine della Polizia di Stato, ha precisato il numero dei dati in loro possesso.

      “il numero di cartellini fotosegnaletici acquisiti e conservati all’interno della banca dati del Casellario Centrale d’Identità del Servizio Polizia Scientifica (AFIS), corrispondenti a cittadini di paesi terzi, con specifica indicazione: Cartellini acquisiti a soggetti che hanno dichiarato nazionalità: A) di paese terzo dell’Unione Europea 13.516.259, B) di stato membro dell’Unione Europea (Italia esclusa) 1.654.917, C) italiana 3.289.196. I dati sono riferiti al 28 luglio 2022”.

      Infatti, i cittadini stranieri sono foto segnalati diverse volte nell’arco della loro permanenza in Italia: al momento del loro arrivo sul territorio, nei casi di rinnovo, rilascio, conversione del titolo di soggiorno e tutte le volte che vengono foto segnalati, i loro dati confluiscono nella banca dati del Casellario AFIS.

      Per i cittadini italiani non funziona allo stesso modo: i dati di questi ultimi, rilasciati in occasione dell’ identificazione per finalità amministrative (es. per il rilascio del passaporto o della carta d’identità), sono conservati in registri appositi e non confluiscono nella banca dati AFIS (né possono essere in alcun modo utilizzati per scopi di indagine o altre finalità di polizia).
      Causa antidiscriminatoria

      ASGI, insieme all’Associazione Progetto Diritti ONLUS e due cittadini stranieri naturalizzati italiani, ha presentato un ricorso al Tribunale civile di Roma chiedendo l’accertamento del carattere discriminatorio del comportamento del Ministero dell’Interno, consistente nella conservazione e nel trattamento dei dati riguardanti i cittadini stranieri (raccolti in occasione delle pratiche amministrative di rilascio e rinnovo del permesso di soggiorno) all’interno di una banca dati di polizia utilizzata per la repressione dei reati. La conservazione e il trattamento di dati sensibili non può essere differenziata in ragione della nazionalità, salvo una espressa disposizione di legge, avendo i cittadini stranieri diritto alla parità di trattamento nei diritti civili rispetto agli italiani.

      Inoltre, la raccolta di dati biometrici, anche se dovesse ritenersi effettuata per finalità di polizia o per interesse pubblico, deve essere regolata – secondo la disciplina italiana e euro-unitaria – da leggi o da regolamenti che disciplinino il trattamento alla luce della specifica funzione perseguita e che tutelino i diritti dei titolari, mentre nella situazione contestata la raccolta e l’inserimento in banca dati di polizia avviene in via di fatto, in assenza di un espresso e motivato atto normativo.

      Tra le richieste che i ricorrenti hanno formulato al giudice, vi è la cancellazione dalla banca dati AFIS di tutti i dati appartenenti ai cittadini di Paesi non UE identificati per finalità di rilascio, rinnovo o conversione del permesso di soggiorno, nonché la cancellazione dei dati appartenenti ai cittadini stranieri naturalizzati italiani e la modifica del decreto ministeriale del 2017 che ha previsto l’obbligo di inserimento di tali dati in AFIS.

      Infine, i ricorrenti ritengono che l’ attuale trattamento illegittimo possa essere superato solo laddove il Ministero adotti un apposito e separato registro in cui siano conservati esclusivamente i dati dei cittadini stranieri raccolti all’atto del loro fotosegnalamento per il rinnovo e la conversione del titolo di soggiorno, con conseguente cancellazione del registro AFIS dei dati di cittadini extra-UE raccolti per finalità amministrative e pertanto anche dei dati dei ricorrenti.

      https://www.asgi.it/discriminazioni/casellario-afis-una-banca-dati-discriminatoria-forze-di-polizia

  • Le rayonnement des smartphones est pire que celui des antennes 5G ats/aes
    https://www.rts.ch/info/sciences-tech/technologies/12753094-le-rayonnement-des-smartphones-est-pire-que-celui-des-antennes-5g.html

    Les nouvelles antennes de téléphonie mobile 5G sont combattues par plus de 3000 oppositions. Mais pour l’épidémiologiste Martin Röösli, le problème ne concerne pas tant le rayonnement de ces infrastructures que celui des téléphones portables, surtout lorsque la couverture réseau est faible.

    Un smartphone émet un rayonnement 100 à 1000 fois plus fort sur le corps qu’une antenne de téléphonie mobile 5G, explique Martin Röösli dans le quotidien Walliser Bote mercredi. Et pour un appareil qui n’a presque pas de réception réseau, c’est pire : il émet ainsi jusqu’à un million de fois plus de rayonnement qu’un natel qui bénéficie d’une bonne réception.

    En Suisse, les valeurs limites des antennes de téléphonie mobile sont 50 fois plus basses que celles qui causent des dommages avérés pour la santé. Compte tenu de la grande marge de sécurité dans ce domaine, il y a matière à discussion, et une augmentation des valeurs limite est une décision qui relève de la politique, estime l’expert. Mais les valeurs limite devraient être plus contrôlées, ajoute-t-il.

    Appliquer le principe du pollueur-payeur ?
    Pour l’épidémiologiste, il est important que le principe du pollueur-payeur s’applique aussi à la téléphonie mobile. Les opérateurs utilisent des technologies émettant des rayonnements ; ils devraient donc contribuer à la résolution du problème.

    Martin Röösli dirige l’unité Environnement et santé à l’Institut tropical et de santé publique (Swiss TPH) associé à l’Université de Bâle. Il étudie depuis 20 ans les effets du rayonnement de la téléphonie mobile et est membre de la Commission internationale de protection contre les rayonnements non ionisants. Cette commission participe à l’établissement de valeurs limites pour les téléphones portables et les antennes.

     #smartphone #5g #santé #technologisme #nécrotechnologies #rayonnement #géolocalisation #téléphonie #surveillance #algorithme #santé #bigdata #google #apple #facebook #covid-19 #écoutes #technologisme #contacttracing #métadonnées #biométrie #pollution

  • Des chercheurs israéliens contournent la reconnaissance faciale grâce à l’IA
    https://fr.timesofisrael.com/des-chercheurs-israeliens-contournent-la-reconnaissance-faciale-gr

    Des chercheurs israéliens ont trouvé une méthode apparemment simple pour tromper les logiciels de reconnaissance faciale – en appliquant du maquillage conventionnel sur des zones spécifiques du visage selon un modèle déterminé par un programme d’intelligence artificielle.

    L’étude, menée à l’université Ben Gurion de Beer Sheva, a montré que, lorsque l’on applique le motif de maquillage généré par l’ordinateur sur les sujets testés, les systèmes sont contournés avec un taux de réussite proche de 100 %.


    Une image illustrant l’intelligence artificielle et les technologies de reconnaissance faciale. (Crédit : KENGKAT ; iStock by Getty Images)

    Vingt volontaires (10 hommes et 10 femmes) se sont vu appliquer du maquillage sur les zones du visage les plus identifiables selon la carte thermique générée par le logiciel, ou du maquillage aléatoire, et enfin pas de maquillage du tout.

    Les sujets ont ensuite été confrontés à un environnement réel en marchant dans un couloir équipé de deux caméras et de diverses conditions d’éclairage.

    Avec le modèle de maquillage conçu par le logiciel, les sujets n’ont été correctement identifiés que dans 1,22 % des cas, contre 33,73 % des cas avec un maquillage aléatoire et 47,57 % des cas sans aucun maquillage.

    « J’ai été surpris par les résultats de cette étude », a déclaré Nitzan Guetta, l’un des principaux auteurs de l’étude, au site américain Motherboard.


    Le système de reconnaissance faciale est incapable d’identifier le sujet une fois le maquillage généré par l’IA appliqué. (Autorisation de l’université Ben Gurion et de l’université Cornell)

    « [La maquilleuse] n’a pas fait trop d’astuces, elle a juste vu le modèle de maquillage de l’IA et a ensuite essayé de le copier. Ce n’est pas une copie parfaite. Il y a des différences, mais ça marche quand même », a-t-elle ajouté.

    L’étude a été menée en utilisant des palettes de couleurs neutres pour obtenir un look naturel et des techniques de maquillage conventionnelles, ce qui signifie qu’elle peut techniquement être reproduite par n’importe qui. Cependant, l’inconvénient de la méthode est que l’on est toujours très reconnaissable par les autres humains.


    Un participant avec un modèle de maquillage recommandé par le programme d’IA qui a pu tromper un système de reconnaissance faciale. (Autorisation de l’Université Ben Gurion et de l’Université Cornell)

    #IA #reconnaissance_faciale #biométrie #facial #surveillance #algorithme #reconnaissance #vidéo-surveillance #discrimination #smartphone #police #maquillage #surveillance #vidéo-surveillance #vidéosurveillance #caméras #reconnaissance

  • Rapport parlementaire : de nouveaux moyens de contrainte technologique
    https://www.piecesetmaindoeuvre.com/spip.php?article1568

    En juin 2021, le Sénat publiait un rapport légitimant la contrainte numérique durant les crises sanitaires (lire ici), où l’on pouvait notamment lire cette affirmation :

    « Plus la menace sera grande, plus les sociétés seront prêtes à accepter des technologies intrusives, et des restrictions plus fortes à leurs libertés individuelles – et c’est logique. »

    Confirmation en ce mois de septembre 2021 avec un autre rapport remis au Premier ministre, signé du député LREM de la Loire et ex-attaché parlementaire Jean-Michel Mis. Ce rapport est intitulé « Pour un usage responsable et acceptable par la société des technologies de sécurité ». La sécurité, comme la santé, étant « la première des libertés », selon la novlangue de l’ère cybernétique, on ne sera pas surpris du contenu de ce rapport. Il s’agit d’étendre les (...)

    https://www.vie-publique.fr/sites/default/files/rapport/pdf/281424.pdf #Nécrotechnologies

  • La #numérisation du #contrôle_migratoire européen

    Le contrôle migratoire européen repose aujourd’hui sur la collecte, la sauvegarde et le partage d’#informations_biométriques_numérisées par les polices et consulats des États membres. Du premier fichier dit #SIS (#Système_d’informations_Schengen) issu du rapprochement des polices dans les années 1980 contre la criminalité transfrontalière à l’#Entry_Exit_System qui ambitionne d’enregistrer l’ensemble des voyageurs vers l’Europe à partir de 2022, ces #bases_de_données dessinent un #contrôle_à_distance, en amont dès le pays de départ et en aval au sein même de l’espace Schengen, souvent déconnecté de tout franchissement frontalier. Un tel #contrôle_numérisé nourrit une #industrie de la surveillance et de la #sécurité en pleine expansion. Ce phénomène peut être rapproché de la mise en carte d’antan tout en se singularisant par un #contrôle_individualisé dans un fantasme de #surveillance_généralisée de l’ensemble des #mobilités contemporaines.

    https://ehne.fr/fr/encyclopedie/th%C3%A9matiques/les-migrations-en-europe/surveillance-et-contr%C3%B4le-des-migrations/la-num%C3%A9risation-du-contr%C3%B4le-migratoire-europ%C3%A9en

    #surveillance #frontières #migrations #réfugiés #asile #biométrie #données #privatisation #complexe_militaro-industriel

    ping @isskein @karine4 @etraces

  • En Australie, selfies et vidéos en direct deviennent un outil de surveillance des personnes en quarantaine
    https://www.letemps.ch/monde/australie-selfies-videos-direct-deviennent-un-outil-surveillance-personnes-q

    Vous avez été mis en quarantaine ?
    Vous avez 15 minutes pour vous connecter à l’application de l’Etat d’Australie méridionale et prouver que vous êtes bien chez vous, grâce à la reconnaissance faciale et la géolocalisation.
    Un dispositif-test orwellien qui pourrait être déployé au niveau national

    Pour s’assurer du respect des mesures de quarantaine imposées dans le pays, un Etat australien impose à ses citoyens de se plier à un contrôle atypique : une application développée par le gouvernement, Home Quarantine SA, doit être installée pour s’assurer que chacun et chacune se trouve bien en isolement à l’adresse indiquée.

    Souriez, vous êtes filmés
    La personne contrôlée est contactée par SMS, de manière aléatoire, et dispose de quinze minutes pour montrer son visage devant la caméra de son smartphone. La date, l’heure et sa localisation sont alors vérifiées. Ceci pour prouver que le sujet filmé en direct est bien à son domicile. Mais ce n’est pas tout : ses traits sont également scrutés par un logiciel de reconnaissance faciale afin de déterminer s’ils correspondent bien au profil de la personne enregistrée. . . . . . .

    La suite payante, mais est ce bien nécessaire ?

    #contrôle #surveillance #smartphone #algorithme #vidéo-surveillance #biométrie #facial #santé #bigdata #géolocalisation #reconnaissance #police #coronavirus #pandémie #Australie

  • Data et nouvelles technologies, la face cachée du contrôle des mobilités

    Dans un rapport de juillet 2020, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle (#EU-Lisa) présente l’#intelligence_artificielle (#IA) comme l’une des « #technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

    L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme #Frontex ou EU-Lisa, ont été particulièrement actives dans l’expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de #surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

    La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

    http://migreurop.org/article3021.html

    Pour télécharger la note :
    migreurop.org/IMG/pdf/note_12_fr.pdf

    #migrations #réfugiés #asile #frontières #mobilité #mobilités #données #technologie #nouvelles_technologies #coronavirus #covid #IOM
    #migreurop

    ping @etraces

    voir aussi :
    Migreurop | Data : la face cachée du contrôle des mobilités
    https://seenthis.net/messages/900232

    • European funds for African IDs: migration regulation tool or privacy risk?

      The first person you meet after you land at Blaise Diagne Airport in Dakar is a border guard with a digital scanner.

      The official will scan your travel document and photograph and take a digital print of your index fingers.

      It’s the most visible sign of the new state-of-the-art digital biometrics system that is being deployed in the airport with the help of EU funding.

      The aim is to combat the increasingly sophisticated fake passports sold by traffickers to refugees.

      But it also helps Senegal’s government learn more about its own citizens.

      And it’s not just here: countries across West Africa are adopting travel documentation that has long been familiar to Europeans.

      Passports, ID cards and visas are all becoming biometric, and a national enrolment scheme is underway.

      In Europe too, there are proposals to create a biometric database of over 400 million foreign nationals, including fingerprints and photographs of their faces.

      The new systems are part of efforts to battle illegal migration from West Africa to the EU.

      ‘Fool-proof’ EU passport online

      Many are still plying the dangerous route across the Sahara and the Mediterranean to reach Europe, but a growing number are turning to the criminal gangs selling forged passports to avoid the treacherous journey over desert and sea.

      There’s a burgeoning market in travel documents advertised as ‘fake but real”.

      Prices vary according to the paperwork: an EU Schengen transit visa costs €5,000, while a longer-stay visa can be twice as high.

      Some forgers have even mastered the ability to incorporate holograms and hack the biometric chips.

      “Morphing” is an image processing technique that merges two people’s photographs into a single new face that appears to contain entirely new biometric data.

      Frontex, the EU’s border guard agency, says 7,000 people were caught trying to enter the Schengen area in 2019 carrying such documents — but it admits the true figure could be much higher.

      Sending migrants back

      Last year, the largest number of travellers with fake documents arrived via Turkish and Moroccan international airports.

      Many were caught in Italy, having arrived via Casablanca from sub-Saharan countries like Ghana, Mali, Nigeria and Senegal.

      A Frontex team responsible for deporting migrants without the correct paperwork was deployed this year at Rome’s Fiumicino Airport.

      It’s the first sign of a new European Commission regulation expanding the agency’s role, which includes access to biometric data held by member states, according to Jane Kilpatrick, a researcher at the civil liberties think-tank Statewatch.

      “The agency’s growing role in the collection of data, it links overtly to the agency’s role in deporting individuals from the EU,” she said.

      Over 490,000 return decisions were issued by member states last year, but only a third were actually sent back to a country outside the EU.

      There are multiple reasons why: some countries, for example, refuse to accept responsibility for people whose identity documents were lost, destroyed or stolen.

      Legally binding readmission agreements are now in place between the EU and 18 other countries to make that process easier.
      There are no records

      But a bigger problem is the fact that many African countries know very little about their own citizens.

      The World Bank estimates the continent is home to roughly half of the estimated one billion people on the planet who are unable to prove their identities.

      An absence of digitisation means that dusty registers are piling up in storage rooms.

      The same goes for many borders: unlike the scene at Dakar’s airport, many are still without internet access, servers, scanners and cameras.

      That, the Commission says, is why EU aid funds are being used to develop biometric identity systems in West African countries.

      The EU Trust Fund for Africa has allotted €60 million to support governments in Senegal and Côte d’Ivoire in modernising their registry systems and creating a national biometric identity database.

      Much of the funding comes through Civipol, a consulting firm attached to France’s interior ministry and part-owned by Milipol, one of the most important arms trade fairs in the world.

      It describes the objective of the programme in Côte d’Ivoire as identifying “people genuinely of Ivorian nationality and organising their return more easily”.
      Data security concerns

      European sources told Euronews that the EU-funded projects in West Africa were not designed to identify potential migrants or deport existing ones.

      A Commission spokesperson insisted no European entity — neither Frontex, nor member states, nor their partners — had access to the databases set up by West African countries.

      But the systems they are funding are intimately connected to anti-migration initiatives.

      One is the Migrant Information and Data Analysis System (MIDAS), a migration database that can send automatic queries to Interpol watchlists to detect travel documents and people possibly linked to organised crime, including human trafficking.

      Connections like these, and the role of French arms giants like Thales in the growing biometric market, has led data protection experts to become worried about possible abuses of privacy.
      World’s newest biometric market

      As Africa becomes the coveted market for biometric identification providers, the watchdog Privacy International has warned it risks becoming a mere testing ground for technologies later deployed elsewhere.

      So far 24 countries on the continent out of 53 have adopted laws and regulations to protect personal data.

      A letter by Privacy International, seen by Euronews, says EU must “ensure they are protecting rights before proceeding with allocating resources and technologies which, in absence of proper oversight, will likely result in fundamental rights abuses.”

      It has published internal documents tracking the development of Senegal’s system that suggest no privacy or data protection impact assessments have been carried out.

      Civipol, the French partner, denies this: it told Euronews that the Senegalese Personal Data Commission took part in the programme and Senegalese law was respected at every stage.

      Yet members of Senegal’s independent Commission of Personal Data (CDP), which is responsible for ensuring personal data is processed correctly, admit implementation and enforcement remained a challenge — even though they are proud of their country’s pioneering role in data governance in Africa.

      For the Senegalese cyber activist Cheick Fall, the charge is more serious: “Senegal has sinned by entrusting the processing of these data to foreign companies.”

      https://www.euronews.com/2021/07/30/european-funds-for-african-ids-migration-regulation-tool-or-privacy-risk

      #biométrie #aéroport #Afrique #étrangers #base_de_données_biométrique #empreintes_digitales #passeports #visas #hologramme #Morphing #image #photographie #Frontex #EU_Trust_Fund_for_Africa #Trust_Fund #Civipol #Milipol #armes #commerce_d'armes #Côte_d’Ivoire #Afrique_de_l'Ouest #Migrant_Information_and_Data_Analysis_System (#MIDAS) #Interpol #Thales #Sénégal #Senegalese_Personal_Data_Commission #Commission_of_Personal_Data (#CDP)

    • EU Watchdog Finds Commission Failed to Protect Human Rights From its Surveillance Aid to African Countries

      The European #Ombudsman has found that the European Commission failed to take necessary measures to ensure the protection of human rights in the transfers of technology with potential surveillance capacity supported by its multi-billion #Emergency_Trust_Fund_for_Africa

      The decision by the EU’s oversight body follows a year-long inquiry prompted by complaints outlining how EU bodies and agencies are cooperating with governments around the world to increase their surveillance powers filed by Privacy International, Access Now, the Border Violence Monitoring Network, Homo Digitalis, International Federation for Human Rights (FIDH), and Sea-Watch.

      The complainants welcome the decision by the European Ombudsman and call on the Commission to urgently review its support for surveillance in non-EU countries and to immediately implement the Ombudsman’s recommendations in their entirety. 

      The inquiry, which investigated the support of projects across Africa aimed at bolstering surveillance and tracking powers and involved extensive evidence-gathering from the Commission and complainants, found that “the Commission was not able to demonstrate that the measures in place ensured a coherent and structured approach to assessing the human rights impacts”.

      It recommends that the Commission now require that an “assessment of the potential human rights impact of projects be presented together with corresponding mitigation measures.” The lack of such protections, which the Ombudsman called a “serious shortcoming”, poses a clear risk that these surveillance transfer might cause serious violations of or interferences with other fundamental rights. 

       

      Ioannis Kouvakas, Senior Legal Officer at Privacy International, commenting on the decision:

      “This landmark decision in response to our complaint marks a turning point for the European Union’s external policy and sets a precedent that will hopefully protect the rights of communities in some of the most vulnerable situations for the years to come.”

      An FIDH Spokesperson said:

      “Indeed, this decision warns once again the European Commission about its failure to comply with its human rights obligations. The decision makes clear that the EU has to better develop its processes to effectively put the protection of human rights at core of the design and the implementation of its policies and external activities. All human rights and all activities are at stake.”

      Marwa Fatafta from Access Now said:

      “We welcome the Ombudsman’s decision which scrutinises the EU’s failure to protect and respect the human rights of people living off its shores. The EU’s ongoing surveillance transfers to authoritarian regimes in Africa and elsewhere cannot continue business as usual. We hope this decision will help hold the EU accountable to its values overseas, and protect the rights and freedoms of vulnerable communities from intrusive tracking and government surveillance.”

      Homo Digitalis said:

      “The shortcomings that the Ombudsman has identified prove that the Commission is not able to demonstrate that the measures in place ensure a coherent and structured approach to assessing the human rights impacts of #EUTFA projects. This is an important first step, but we need specific accountability mechanisms in place to address violations of rights and freedoms in EUTFA projects. This cannot be ensured via just some revised templates.”

      https://privacyinternational.org/press-release/4992/eu-watchdog-finds-commission-failed-protect-human-rights-its-s
      #EUTF_for_Africa

  • Mineurs étrangers : le fichier antifraude bientôt imposé à tous les départements

    Le projet de #loi « #protection_des_enfants » prévoit de rendre obligatoires à tous les départements le recours au #fichier_anti-fraude concernant les #mineurs_non_accompagnés, ainsi que la transmission de #données_personnelles aux autorités préfectorales. Les associations y voient un « outil de lutte contre l’immigration irrégulière ».

    Il avait été instauré en 2019, officiellement pour lutter contre le « #nomadisme » des #jeunes_migrants, soupçonnés de tenter leur chance d’un département à l’autre pour être reconnus #mineurs et pris en charge par l’#Aide_sociale_à_l’enfance. Le fichier « antifraude » (dit « #AEM », pour aide à l’#évaluation_de_la_minorité) revient, en force, sur le devant de la scène dans le cadre du projet de loi relatif à la « protection des enfants », examiné cette semaine à l’Assemblée nationale.

    Le texte prévoit en effet de le rendre obligatoire à tous les départements, alors qu’une poignée de récalcitrants – dont #Paris, la #Seine-Saint-Denis et le #Val-de-Marne – résistaient jusqu’alors, malgré les #sanctions_financières établies par un décret datant de juin 2020, venant réduire le montant de la contribution forfaitaire de l’État versée pour l’évaluation de la #minorité et la #prise_en_charge des jeunes. La somme passait, pour les départements refusant d’y avoir recours, de 500 à 100 euros.

    Depuis 2019, le gouvernement invite les #départements, sur la base du volontariat, à renvoyer les jeunes se présentant comme mineurs vers la préfecture, où un certain nombre de #données_personnelles (prise d’#empreintes_digitales, photos, #adresse_de_domiciliation, #numéro_de_téléphone...) sont alors collectées et enregistrées. Ces dernières sont ensuite comparées au fichier dit « #Visabio », qui répertorie les demandes de #visa formulées depuis l’étranger et peut biaiser les déclarations des jeunes se présentant comme mineurs, puisque certains d’entre eux tentent d’abord une demande de visa en se déclarant majeurs, dans le but de s’éviter la traversée par la mer.

    « Certains départements ne prennent même plus la peine de faire l’évaluation pour un jeune si la préfecture dit qu’il se trouve dans Visabio », souligne Jean-François Martini, juriste au Gisti. Selon le Groupe d’information et de soutien des immigrés, 77 départements ainsi que la métropole de Lyon auraient déjà recours au fichier AEM permettant la collecte d’informations. Pourtant, jusqu’à présent, impossible de mesurer l’éventuelle « fraude » à laquelle pourraient s’adonner les jeunes migrants en recherche de protection en France.

    « Rien ne justifie l’utilisation de ce fichier »

    Aucun chiffre, aucun bilan, rappelle Camille Boittiaux, référente MNA chez Médecins du monde, ne permettent d’« objectiver le phénomène de “nomadisme” ». « Rien ne justifie l’utilisation de ce fichier. Les arguments avancés par le gouvernement ne sont pas convaincants. Les MNA sont encore une fois considérés comme des migrants, de potentiels fraudeurs, avant d’être vus comme des #enfants. »

    Pourquoi donc vouloir rendre obligatoire un #fichier_biométrique controversé, auquel même la Défenseure des droits a manifesté son opposition, dans un avis critique adressé à la commission des affaires sociales de l’Assemblée nationale fin juin, pointant un texte « pas à la hauteur des besoins que l’on note en #protection_de_l’enfance », rappelant, au passage, que le droit des MNA de refuser de transmettre leurs #informations_personnelles « n’est plus considéré ni prévu » ?

    Pour les associations d’aide aux migrants et aux MNA, comme pour le député Guillaume Chiche, la réponse est simple : il s’agit de faire de la protection de l’enfance un « outil de #lutte_contre_l’immigration_irrégulière ». « On passe du champ de la protection de l’enfance à un système policier, et le fichier AEM en est le premier pont », prévient Jean-François Martini. Dans un communiqué interassociatif (https://www.gisti.org/spip.php?article6614) rassemblant le Gisti, La Cimade, Infomie, Médecins du monde et le Secours catholique, ces organisations dénoncent un « #fichage policier systématique » et la « nocivité » de ce fichier. « Depuis sa mise en œuvre par la plupart des départements métropolitains, c’est une catastrophe pour les jeunes à tous points de vue », poursuit le juriste auprès de Mediapart.

    La référente MNA de Médecins du monde pointe, elle aussi, les « effets délétères » du fichier dans les départements où il a déjà été mis en place : « On a constaté que certains mineurs craignaient le passage en préfecture et décidaient de ne pas intégrer le système de la protection de l’enfance. D’autres sont laissés sans mise à l’abri en attendant le passage à la préfecture. D’autres encore n’ont ni mise à l’abri ni évaluation après consultation du fichier par le département. » Une sorte de #tri faisant fi du principe de #présomption_de_minorité, qui doit normalement garantir une protection aux jeunes se déclarant mineurs durant toute la durée de leurs démarches.

    « L’article 15 relève exclusivement de la gestion de flux migratoires, relève le député Guillaume Chiche, membre de la commission des affaires sociales. On organise la délivrance de renseignements sur les MNA aux autorités préfectorales. Pire, on oblige les départements à leur présenter les MNA ! » Avec le risque, aux yeux du député ex-LREM, de « reléguer les travailleurs sociaux au rang d’enquêteurs et de supplétifs des forces de l’ordre ». « Il n’y a plus de #secret_professionnel, cela rompt le lien de #confiance avec les jeunes », déplore-t-il.

    Mélange des genres

    Dans son avis, la Défenseure des droits exprime « ses profondes inquiétudes » quant à l’article 15, qui tend « davantage à traiter du #contrôle_migratoire qu’à une réelle amélioration de la protection des mineurs non accompagnés ». MNA qui relèvent, rappelle-t-elle, uniquement des dispositifs de la protection de l’enfance « jusqu’à l’établissement de leur âge par une décision judiciaire », et qui devraient être exclus de procédures relevant « d’un contrôle et d’une gestion des flux migratoires ».

    Un mélange des genres « intolérable » pour le Gisti. « On ne peut pas à la fois faire de la protection de l’enfance et mettre en œuvre des mesures elles-mêmes affichées comme de la lutte contre l’immigration irrégulière, estime Jean-François Martini. Le résultat de l’évaluation finit entre les mains d’une préfecture qui peut en tirer un argument pour prononcer une mesure d’éloignement, on organise une collaboration objective entre professionnels de la protection de l’enfance et services des préfectures. »

    Contacté, le département du Val-de-Marne n’a pas donné suite à l’heure où nous publions cet article. Désormais passé à droite, celui qui faisait partie des derniers « résistants » au fichier AEM et avait même déposé un recours auprès du Conseil d’État avec la Seine-Saint-Denis pour contester le décret du 23 juin 2020, risque de changer de cap. En Seine-Saint-Denis, le fichier est jugé « inacceptable » et reste à ce jour inutilisé.

    « Ce n’est pas notre rôle, tranche Stéphane Troussel, président du Conseil départemental. Les départements ne sont pas des supplétifs du ministère de l’intérieur. C’est à ce titre qu’on a refusé d’appliquer le décret jusqu’ici. Avec le recours obligatoire au fichier, on va fouler au pied la libre administration des collectivités territoriales. L’État devrait aller au bout de sa logique : s’il considère que cela relève de la question migratoire, à lui de prendre en charge la mise à l’abri et l’évaluation ! »

    Difficile, pour Dominique Versini, adjointe en charge de la protection de l’enfance à Paris, de dire si le département pourra continuer de « résister » bien longtemps : « Avec la Seine-Saint-Denis et la #Gironde, on n’a pas cessé de subir des #pressions. On a été pointés du doigt par le gouvernement comme des “gauchistes” qui voudraient favoriser l’appel d’air. On a essayé de nous attaquer par le porte-monnaie avec le décret réduisant la contribution forfaitaire. On a admis le fait de ne pas recevoir l’argent de l’État, qui représente une perte de 2,2 millions d’euros de recettes par an pour Paris, parce que nos valeurs l’emportaient. Mais là, le problème, c’est que le recours au fichier va être rendu obligatoire par la loi... », appréhende l’élue.

    Alors que le gouvernement mène déjà une politique de lutte contre l’immigration illégale « très dure », il « passe » désormais par les départements, selon elle, pour récupérer des jeunes à expulser. « C’est une façon d’utiliser la protection de l’enfance au profit d’une politique de lutte contre l’immigration illégale et cela me choque profondément », dénonce l’ancienne ministre, qui souligne une violation de la Convention internationale des droits de l’enfant et de la présomption de minorité, les jeunes étant contraints de se rendre en préfecture avant même d’avoir fait l’objet d’une évaluation. « La puissance du ministère de l’intérieur l’emporte sur le secrétariat en charge de la protection de l’enfance et je le déplore », poursuit Dominique Versini.
    Rien pour améliorer le quotidien des mineurs étrangers

    Le projet de loi prévoit par ailleurs d’interdire le placement des mineurs à l’#hôtel, mais introduit tout de même un caractère d’urgence, avec une durée maximale de deux mois, qui laisse planer le doute : « Deux mois, c’est déjà énorme ! Il y a entre 7 500 et 10 000 enfants placés à l’hôtel, et cela répond quasiment tout le temps à des situations d’#urgence et de #mise_à_l’abri. Donc cela ne va rien changer », alerte Guillaume Chiche, ajoutant qu’une majorité des enfants placés à l’hôtel sont des MNA. « Quand j’ai interpellé le ministre [Adrien Taquet] en commission, il a répondu que la durée de deux mois correspondait au temps qu’il fallait aux départements pour évaluer la minorité. Il y a donc un #droit_d’exception pour les MNA, et il est criminel d’organiser le tri entre les enfants. »

    En 2020, 4 750 jeunes se sont présentés à Paris pour une évaluation (contre 1 500 en 2015). Les MNA représentent un tiers des enfants confiés à l’#ASE. Paris et la Seine-Saint-Denis comptabilisent, à eux seuls, 50 % des évaluations réalisées en France (et 70 % pour l’Île-de-France). Ces deux départements restent ceux qui accueillent le plus de mineurs isolés. Pour mieux prendre en compte les spécificités socio-économiques des départements, et notamment le niveau de pauvreté, le projet de loi prévoit de modifier les critères du système de #répartition des MNA sur le territoire français - créé en 2016 pour soulager les départements les plus sollicités.

    S’il ambitionne d’apporter une « réponse précise », guidée par « l’intérêt supérieur de l’enfant et la pérennisation de notre système de protection de l’enfance », force est de constater que le projet de loi reste à mille lieues des enjeux (lire notre analyse : https://www.mediapart.fr/journal/france/160621/enfants-en-danger-un-projet-de-loi-mille-lieues-des-enjeux), et que rien ou presque ne vise à améliorer la prise en charge et le quotidien des MNA, dont l’histoire et le parcours migratoire sont souvent traumatisants.

    Rien concernant ces jeunes voyant d’abord leur minorité contestée, exclus du dispositif de protection et laissés à la #rue durant la durée de leur recours, puis reconnus majeurs par le juge des enfants [un jeune sur deux à saisir le juge serait reconnu mineur - ndlr]. Rien concernant ces jeunes reconnus mineurs par un département, puis réévalués majeurs dans un second département en raison du système de répartition imposé. Rien, enfin, concernant ces ex-MNA qui, à leur majorité et malgré une formation en apprentissage, parfois avec le soutien d’un employeur, sont menacés d’expulsion, révélant toutes les incohérences de l’État (lire ici ou là le récit de ces gâchis).

    Un projet de loi « de #maltraitance », juge Jean-François Martini. « Il n’y a rien sur la protection des enfants ! Qu’il s’agisse de l’évaluation, des #tests_osseux qu’on ne veut pas interdire ou de la possibilité de placement à l’hôtel dans des cas d’urgence, on les met en situation de #fragilité extrême, et on ose dire que la République fait le job », tacle Guillaume Chiche. Et Camille Boittiaux de conclure : « Il aurait pu y avoir des dispositions protectrices pour une vraie prise en charge de ce public. Mais ils sont uniquement sur le volet sécuritaire et le contrôle des enfants. C’est une occasion manquée. »

    https://www.mediapart.fr/journal/france/070721/mineurs-etrangers-le-fichier-antifraude-bientot-impose-tous-les-departemen
    #France #mineurs_étrangers #MNA #fraude #anti-fraude #antifraude #amende #préfecture #biométrie #chantage #résistance

    ping @etraces @karine4 @isskein

    • Pas de mesures anti-mineurs isolés étrangers dans le projet de loi relatif à l’enfance !

      Le 16 juin a été présenté en Conseil des ministres un projet de loi relatif à l’enfance qui a pour ambition de « garantir véritablement aux enfants un cadre de vie sécurisant et serein, et aux professionnels un exercice amélioré de leurs missions ». Plusieurs dispositions concernent les mineur⋅es isolé⋅es. Pour ces enfants, il n’est pas question de « cadre sécurisant et serein » mais d’un fichage policier systématique et d’une modification de la clé de répartition territoriale des prises en charge, sans tenir compte de leur intérêt.

      Le texte prévoit un recours systématique au fichier d’appui à l’évaluation de la minorité (AEM), qui fait du passage en préfecture un préalable à toute mesure de protection de l’enfance. L’utilisation de ce fichier depuis 2019 par de nombreux départements a démontré sa nocivité : mineur·es laissé·es à la rue dans l’attente de leur passage en préfecture, refus de mise à l’abri et d’évaluation à l’issue de la consultation des fichiers, édiction de mesures d’éloignement à l’égard de ceux et celles « déclaré⋅es » majeur⋅es, les privant de leur droit à un recours devant le ou la juge des enfants, etc. Le gouvernement veut maintenant imposer l’utilisation de ce fichier aux derniers départements qui refusent de confondre protection de l’enfance et lutte contre l’immigration [1].

      La clé de répartition nationale des mineur·es isolé·es entre les départements est modifiée en fonction de nouveaux critères qui ne tiennent aucun compte de l’intérêt de l’enfant : rien sur les délais interminables de transfert entre certains départements qui retardent leur scolarisation et leur prise en charge éducative ; et rien non plus sur les « doubles évaluations » qui conduisent des départements à remettre en cause la mesure de protection prise à l’initiative d’autres départements.

      Encore une occasion manquée pour le gouvernement de prendre des mesures de protection propres à se mettre en conformité avec les droits de l’enfant : détermination de la minorité basée sur l’état civil, présomption de minorité, prise en charge des jeunes majeur·es renforcée, droit au séjour sécurisé…

      Nous appelons donc au retrait de ces dispositions du projet de loi, à l’inclusion de mesures protectrices pour les mineur·es isolé·es et à un approfondissement de celles qui peuvent constituer des pistes d’amélioration de la protection de tous les enfants : prévention de la maltraitance dans les établissements, limitation des placements à l’hôtel, renforcement des normes d’encadrement, etc.

      https://www.gisti.org/spip.php?article6614

  • Why COVID-19 vaccine « passports » threaten human rights
    https://www.accessnow.org/covid-19-vaccine-passports-threaten-human-rights

    As the global COVID-19 vaccine rollout gains momentum, governments from Bahrain to Denmark are clamoring to implement measures to help the world return to pre-virus normality. This includes exploring digital vaccine certificates — or COVID-19 vaccine “passports” — that would record and authenticate a person’s vaccination status. Current proposals, however, threaten human rights by creating space for exclusion and discrimination to flourish, and posing serious long-term threats to the privacy and (...)

    #passeport #biométrie #données #COVID-19 #discrimination #santé #AccessNow

    ##santé

  • In Mexico, a controversial new law requires cell phone users to hand over sensitive information to the government
    https://www.codastory.com/authoritarian-tech/mexico-biometric-cell-phone-law

    The law adds Mexico to a list of 18 countries globally that require biometric data registration for cell phone users Digital rights groups are sounding the alarm about a new law in Mexico that would require all cell phone users to register their personal information and biometric data in a massive government database. The legislation, signed into law by Mexican president Andrés Manuel López Obrador on April 16, adds Mexico to a list of 18 countries globally — including China, Saudi Arabia, (...)

    #smartphone #SIM #biométrie #données #législation #surveillance #AccessNow

  • EU urged to ban AI tools that detect gender, sexuality
    https://news.trust.org/item/20210416162604-x84jp

    Draft EU rules include curbs on AI technology like facial recognition, but not on systems that detect gender, sexuality, race or disability April 16 (Thomson Reuters Foundation) - A cross-party group of European lawmakers called on Friday for an EU ban on artificial intelligence (AI) systems that detect and label people according to gender or sexuality, saying the technology was ripe for abuse and could fuel discrimination. Draft rules set to be announced by the European Commission next (...)

    #vidéo-surveillance #sexisme #biométrie #algorithme #CCTV #reconnaissance #facial #discrimination #LGBT #surveillance #AccessNow (...)

    ##technologisme
    https://d8zcwdvc14g2e.cloudfront.net/contentAsset/image/2f95419c-ab99-4e5a-b287-85acee982775/image/byInode/1/filter/Resize,Jpeg/jpeg_q/70/resize_w/1400

  • Intelligence artificielle : l’Europe face aux apprentis sorciers
    https://www.telerama.fr/debats-reportages/intelligence-artificielle-leurope-face-aux-apprentis-sorciers-6865602.php

    Alors que l’intelligence artificielle ne cesse de se développer, la Commission européenne vient de présenter son projet pour réguler les technologies numériques dans “le respect de l’humain”. Mais cette volonté d’encadrement est-elle tenable face aux appétits des géants chinois et américains ?

    Évoquant l’équilibre, Julien Gracq disait qu’« il suffit d’un souffle pour tout faire bouger ». Dans le rôle du funambule, la Commission européenne vient de publier son projet de règlement sur l’intelligence artificielle (IA). Alors que celle-ci s’insinue partout, charriant son lot de promesses – parfois intenables – et de prophéties autoréalisatrices, l’Europe prend l’initiative, selon la commissaire Margrethe Vestager, d’« élaborer de nouvelles normes qui garantiront une IA sûre, tournée vers le progrès et centrée sur l’humain ». Privilégiant une approche fondée sur le risque, Bruxelles cherche une ligne de crête qui permettrait d’encadrer ce nouvel eldorado sans l’interdire, de respecter les libertés sans hypothéquer l’innovation. Mission impossible ?

    Le sandwich sino-américain

    Trois ans après l’entrée en vigueur du Règlement général sur la protection des données (RGPD), régulièrement salué comme une avancée dans le champ du respect de la vie privée, l’Europe veut remettre le couvert et se positionner comme le champion de la régulation technologique. Le couloir de nage est néanmoins étroit : coincée entre un modèle américain prédateur des données personnelles et un paradigme chinois fondé sur le contrôle social dopé aux algorithmes, l’Union européenne connaît une impuissance relative. Pas facile d’être un gendarme en 2 CV quand les go fast roulent en Maserati.

    Thierry Breton, le commissaire au marché intérieur, a beau répéter que « l’UE doit organiser l’univers numérique pour les vingt prochaines années », en matière d’intelligence artificielle, le futur s’écrit pour l’heure à Shenzhen ou en Californie plutôt qu’à Bruxelles. Il suffit par exemple de jeter un œil curieux sur une présentation déclassifiée de la Commission de sécurité nationale sur l’intelligence artificielle (NSCAI), qui conseille le Congrès et oriente la politique technologique des États-Unis. L’organe, présidé par Eric Schmidt, ancien patron de Google, y déplore l’avance du rival chinois dans des domaines aussi variés que « les véhicules autonomes, les villes intelligentes, les services de transport ou les échanges dématérialisés ». Et affirme sans détours dans une diapositive : « La surveillance est le meilleur client pour l’intelligence artificielle. »

    De quoi mettre à mal les bonnes volontés européennes, pourtant bien réelles. Si la Chine – qui vise une économie de l’IA valorisée à 150 milliards de dollars d’ici à 2030 – n’est pas nommée dans le document de la Commission, son fameux « crédit social », au nom duquel chaque individu se voit attribuer une note modulée en fonction de ses actions quotidiennes, est agité comme un repoussoir absolu : l’Europe suggère ainsi d’interdire ces outils, qui portent « un préjudice systémique à certains individus ou groupes de personnes ».

    Exceptions sécuritaires…

    Autre point saillant : l’identification en temps réel dans l’espace public, qui serait également proscrite. La recommandation a de quoi surprendre quand on sait qu’en janvier 2020 l’Union européenne a renoncé à un moratoire de cinq ans sur la reconnaissance faciale. Mais le diable se niche dans les détails : primo, la biométrie intrusive resterait possible a posteriori ; deuxio, le texte prévoit plusieurs exceptions qui permettraient aux autorités de recourir à ces technologies. Si une première version du texte (ayant fuité la semaine dernière) se contentait d’une grossière dérogation sécuritaire, le projet final réduit les cas d’usage à trois situations : la recherche de victimes et d’enfants disparus, la prévention d’actes terroristes imminents et la localisation de personnes recherchées par la police pour des crimes punis d’au moins trois ans de prison.

    Le projet de règlement mentionne également les intelligences artificielles utilisées aux limites de l’espace communautaire, susceptibles d’« affecter des personnes en situation vulnérable ». Ces outils seraient considérés comme « à risque » et donc assujettis à des contrôles particuliers, sans pour autant être bannis. Ce n’est pas neutre : sous l’égide de Frontex, l’agence européenne de gardes-frontières, l’Europe mobilise drones, caméras thermiques et autres détecteurs de fréquence cardiaque pour refouler – illégalement – les migrants. Or, comme le rappelait le collectif Border Violence Monitoring Network dans un rapport récent, ces technologies répressives contribuent à les déshumaniser, légitimant les violences commises à leur encontre par la police.

    … et péril pseudoscientifique

    Plus surprenant, le projet de règlement reste particulièrement flou au sujet des « systèmes de catégorisation biométriques », autorisant et mettant sur le même plan des IA capables de classer les individus en fonction de leur couleur de cheveux et d’autres qui prétendent les ordonner suivant leur origine ethnique ou leur orientation sexuelle. Inacceptable pour une quarantaine d’eurodéputés. Dans un courrier adressé à la présidente de la Commission, Ursula von der Leyen, ils réclament l’interdiction pure et simple de telles pratiques, « qui réduisent la complexité de l’existence humaine à une série de cases binaires, risquant de perpétuer de nombreuses formes de discrimination ». Le péril n’est pas seulement théorique : il y a quelques mois, un chercheur américain, déjà à l’origine d’un « gaydar » dopé à l’intelligence artificielle, publiait un article scientifique dans la revue Nature, affirmant qu’on peut inférer les opinions politiques d’un individu grâce à la reconnaissance faciale.

    En l’état, cet angle mort du texte européen pourrait contribuer à ressusciter les pseudosciences racistes du XIXe siècle, au premier rang desquelles la physiognomonie, qui prétend examiner le langage animal du corps et déduire la personnalité d’un individu sur la foi des traits de son visage. Largement utilisée par les eugénistes pour soutenir leurs thèses, cette discipline dangereuse revit aujourd’hui sur un marché émergent de la détection des émotions, boosté par la pandémie. La physiognomonie est par exemple à l’origine de la start-up Clearview AI, l’épouvantail de la reconnaissance faciale, aujourd’hui poursuivie aux États-Unis pour avoir illégalement bâti une base de données de 3 milliards de visages. Appelant récemment à une régulation drastique de l’identification des affects, la chercheuse australienne Kate Crawford évoquait la nécessité de résister à « la pulsion phrénologique », un autre charlatanisme selon lequel nos caractères dépendent de la forme de notre crâne : « Nous devons rejeter la mythologie selon laquelle nos états d’âme sont un jeu de données qu’on pourrait extraire de nos visages. » Le pays moteur dans ce secteur infréquentable ? La Chine.

    #Frontex #algorithme #CCTV #drone #biométrie #migration #température #données #facial #législation #reconnaissance #vidéo-surveillance #BigData #surveillance (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_

  • Suresnes veut détecter les comportements suspects
    https://www.nextinpact.com/article/45514/suresnes-veut-detecter-comportements-suspects

    La ville de Suresnes, dans les Hauts de Seine, va relier ses caméras de vidéosurveillance (en novlangue juridique « vidéoprotection ») à une intelligence artificielle de XXII Group. Il n’y aura aucune reconnaissance faciale ni biométrique, assure son PDG, qui plaide pour une utilisation éthique de l’IA, et voudrait pouvoir en discuter avec la Quadrature du Net. XXII Group, une société spécialisée dans les solutions et produits d’intelligence artificielle, a sollicité la Ville de Suresnes, où elle est (...)

    #algorithme #CCTV #biométrie #vidéo-surveillance #surveillance #CNIL

  • India wants to use facial recognition in its coronavirus vaccine drive
    https://www.codastory.com/authoritarian-tech/india-vaccines-facial-recognition-aadhaar

    Opponents fear that the move is designed to further entrench the country’s controversial biometric ID system India is planning to add a facial recognition system based on Aadhaar, the country’s centralized biometric identity program, to the national Covid-19 vaccination drive. The proposal has prompted criticism from tech experts and digital rights advocates. In an interview last week, chair of the National Health Authority chair R.S. Sharma said that the government is testing the system in (...)

    #biométrie #facial #reconnaissance #Aadhaar #COVID-19 #santé

    ##santé

  • Loi sécurité globale adoptée : résumons
    https://www.laquadrature.net/2021/04/16/loi-securite-globale-adoptee-resumons

    La loi sécurité globale a été définitivement adoptée hier par l’Assemblée nationale, à 75 voix contre 33, au terme d’un débat soumis aux exigences de la police et dont nous n’attendions plus grand chose (lire notamment notre analyse de l’examen en commission à l’Assemblée ou au Sénat). La prochaine étape sera l’examen de la loi par le Conseil constitutionnel. Nous lui enverrons bientôt nos observations. Avant cela, prenons un instant pour résumer les changements juridiques qui, sauf censure de la part du (...)

    #algorithme #drone #anti-terrorisme #biométrie #géolocalisation #aérien #facial #législation #reconnaissance #vidéo-surveillance #immatriculation #LoiSécuritéGlobale #surveillance (...)

    ##LaQuadratureduNet

  • President of Mexico should veto the biometric mobile phone registry
    https://www.accessnow.org/mexicos-new-biometric-mobile-phone-registry

    Collecting personal biometric data in exchange for a mobile SIM card is unnecessary and dangerous. Yet, this is the stark reality the Mexican Chamber of Senators has set in motion after voting yesterday, April 13, in favor of establishing a National Register of Mobile Phone Users. Access Now and Red en Defensa de los Derechos Digitales (R3D) call on the President of Mexico, Andrés Manuel López Obrador, to veto the alarming new biometric mobile phone registry. “The president must be consistent (...)

    #smartphone #SIM #biométrie #criminalité #données #reconnaissance #empreintes #AccessNow

    ##criminalité

  • Automatic gender recognition tech is dangerous, say campaigners : it’s time to ban it
    https://www.theverge.com/2021/4/14/22381370/automatic-gender-recognition-sexual-orientation-facial-ai-analysis-ban-cam

    Simplistic gender binaries infringe on the right to self-expression Dangers posed by facial recognition like mass surveillance and mistaken identity have been widely discussed in recent years. But digital rights groups say an equally insidious use case is currently sneaking under the radar : using the same technology to predict someone’s gender and sexual orientation. Now, a new campaign has launched to ban these applications in the EU. Trying to predict someone’s gender or sexuality from (...)

    #Microsoft #Amazon #algorithme #biométrie #facial #reconnaissance #discrimination #LGBT #surveillance (...)

    ##AccessNow