• affordance.info : Facebook et l’algorithme du temps perdu
    https://www.affordance.info/mon_weblog/2022/07/facebook-algorithme-temps-perdu.html
    https://www.affordance.info/.a/6a00d8341c622e53ef02a308d8b516200c-600wi

    Un algorithme dans un réseau social c’est un peu comme un produit ou un rayon dans un supermarché. De temps en temps il faut le changer de place pour que les gens perdent leurs habitudes, traînent davantage et perdent du temps à la recherche de leurs produits et rayons habituels, et tombent si possible sur des produits et rayons ... plus chers. Mais également pour que dans cette errance artificielle ils soient tentés d’acheter davantage. Tout le temps de l’errance est capitalisable pour de nouvelles fenêtres de sollicitations marchandes.

    Or la question de l’urgence du changement est particulièrement d’actualité pour la firme qui risque pour la première fois de son histoire de perdre des parts de marché publicitaire, et qui, au cours des trois derniers mois de l’année dernière, avait annoncé qu’elle avait perdu des utilisateurs quotidiens pour la première fois en 18 ans d’histoire.

    #Facebook #GAFAM #Algorithme #EMI #Réseauxsociaux

  • Prédire les flux migratoires grâce à l’intelligence artificielle, le pari risqué de l’Union européenne
    https://disclose.ngo/fr/article/union-europeenne-veut-predire-les-flux-migratoires-grace-a-lintelligence-a

    Depuis plusieurs mois, l’Union européenne développe une intelligence artificielle censée prédire les flux migratoires afin d’améliorer l’accueil des migrants sur son sol. Or, selon plusieurs documents obtenus par Disclose, l’outil baptisé Itflows pourrait vite se transformer en une arme redoutable pour contrôler, discriminer et harceler les personnes cherchant refuge en Europe. Lire l’article

    • C’est un logiciel qui pourrait sa place dans une dystopie. Une intelligence artificielle capable de compiler des milliers de données afin de prédire des flux migratoires et identifier les risques de tensions liées à l’arrivée de réfugiés aux frontières de l’Europe. Son nom : Itflows, pour « outils et méthodes informatiques de gestion des flux migratoires ». Financé à hauteur de 5 millions d’euros par l’Union européenne et développé par un consortium composé d’instituts de recherche, d’une société privée (Terracom) et d’organisations caritatives, Itflows qui est en phase de test devrait rentrer en service à partir d’août 2023. Et ce, malgré des alertes répétées quant aux risques de détournement de ses capacités prédictives à des fins de contrôle et de restrictions des droits des réfugiés sur le sol européen.

      Encore méconnu, ce programme doit venir compléter un dispositif technologique destiné à la surveillance des frontières, notamment espagnoles, italiennes et grecques. Financé sur le budget d’« Horizon 2020 », le programme de recherche et d’innovation de l’Union européenne, Itflows s’ajoutera alors aux drones de surveillance autonome, aux détecteurs de mensonges dans les zones de passages ou à l’utilisation de logiciels d’extraction de données cellulaires.

      D’après notre enquête, les deux ONG contribuent à nourrir l’intelligence artificielle de Itflows en lui fournissant des informations précieuses. Des données directement issues d’entretiens réalisés dans des camps de réfugiés, auprès de Nigérians, de Maliens, d’Érythréens ou encore de Soudanais. Il pourra s’agir d’éléments liés à l’origine ethnique, l’orientation sexuelle ou encore la religion des personnes interrogées. Pour leur contribution, les branches italiennes de la Croix-Rouge et d’Oxfam ont respectivement reçu 167 000 euros et 116 000 euros de fonds publics européens.

      « Nous avons contribué à réaliser trente entretiens de migrants arrivés en Italie au cours des six dernières années », confirme la Croix rouge Italie, sollicitée par Disclose. Une fois analysées, puis rendues accessibles via une application baptisée EUMigraTool, ces informations serviront aux autorités italiennes dans leur analyse « des routes migratoires et des raisons qui poussent les gens à faire le voyage », ajoute l’association. Même son de cloche du côté de Oxfam Italie, qui salue l’intérêt pour « les responsables politiques des pays les plus exposés aux flux migratoires. » Les dirigeants pourront également s’appuyer sur l’analyse des risques politiques liés à l’arrivée de migrants sur leur sol. Le projet inclut en effet la possibilité d’étudier l’opinion publique dans certains pays européens vis-à-vis des migrants à travers une veille sur le réseau social Twitter.
      Des rapports internes alarmants

      En réalité, les risques de détournement du programme existent bel et bien. C’est ce que révèlent des rapports internes (https://www.documentcloud.org/projects/logiciel-itflows-208987) au consortium que Disclose a obtenu à la suite d’une demande d’accès à des documents administratifs. Lesdits rapports, datés de janvier et juin 2021, ont été rédigés par les membres du comité éthique du projet Itflows. Leurs conclusions sont alarmantes. Le premier document, une somme de 225 pages, révèle que « le consortium Itflows est pleinement conscient des risques et des impacts potentiels en matière de droits de l’homme, que les activités de recherche empirique sur les migrations (…) et les développements technologiques prévus dans le projet peuvent poser ». Plus loin, les auteurs enfoncent le clou. Selon eux, les informations fournies par l’algorithme pourraient servir, si elles devaient être utilisées « à mauvais escient », à « stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile ».

      Cinq mois plus tard, le comité éthique rend un second rapport. Il détaille un peu plus le danger : « Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants » ; « risque d’identification physique des migrants » ; « discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge » ; « risque que les migrants puissent être identifiés et sanctionnés pour irrégularités ». Et le régulateur d’alerter sur un autre péril : la poussée des « discours de haine » que pourrait induire une éventuelle diffusion des prédictions du logiciel dans « les zones où les habitants sont informés de déplacements » de populations.
      L’Europe fait la sourde oreille

      Des alertes qui ne semblent pas avoir été entendues. Comme en atteste un bilan dressé lors d’une réunion (https://www.documentcloud.org/documents/22120596-emt-symposium-agenda-16-sep-2021?responsive=1&title=1) en ligne le 16 septembre 2021 par la coordinatrice du comité éthique de Itflows, #Alexandra_Xanthaki, devant des responsables européens, dont #Zsuzsanna_Felkai_Janssen, rattachée à la direction générale des affaires intérieures de la Commission. « Nous avons passé six mois à travailler jour et nuit pour rédiger un rapport instaurant un cadre qui intègre les droits de l’homme », débute la responsable du comité éthique, selon un enregistrement que Disclose s’est procuré. Elle poursuit : « Il me semble pourtant que ce que disent les techniciens de l’équipe aujourd’hui c’est : nous n’en tenons pas compte ». Un manque de précaution qui inquiète jusqu’au sein du conseil d’administration d’Itflows. Joint par Disclose, Alexander Kjærum, analyste pour le conseil danois pour les réfugiés et membre du conseil de surveillance estime en effet qu’il existe « un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières. »

      Sollicitée, la coordinatrice du programme, #Cristina_Blasi_Casagran, assure que le logiciel « ne sera pas utilisé à mauvais escient ». Selon elle, Itflows « devrait même faciliter l’entrée des migrants [dans l’Union européenne] en permettant une meilleure affectation des ressources engagées dans l’#accueil ».

      #Frontex inquiète

      Un dernier point vient renforcer le risque d’un détournement du logiciel : l’intérêt de Frontex pour Iflows. D’après des documents internes, l’agence en charge de la surveillance des frontières de l’UE suit étroitement les avancées du programme. Jusqu’à y contribuer activement via la fourniture de données récoltées dans le cadre de ses missions. Or, depuis plusieurs années, l’agence européenne est régulièrement accusée d’expulsions illégales et de violations des droits de l’homme. Interrogée sur ce point, l’ONG Oxfam considère qu’il n’y a pas de risque de détournement du logiciel au profit de l’agence. La branche italienne de la Croix rouge déclare quant à elle que « la convention de subvention régissant la mise en œuvre du projet Itflows ne désigne pas Frontex comme utilisateur de l’outil, mais simplement comme source de données ouvertes ». En 2021, Frontex a élu l’interface Itflows parmi les projets d’Horizon 2020 au « potentiel opérationnel et innovant » le plus élevé.

      #AI #IA #intelligence_artificielle #complexe_militaro-industriel #asile #migrations #frontières #EU #UE #Union_européenne #prédiction #Itflows #contrôle #logiciel #risques #Terracom #surveillance #Espagne #Italie #Grèce #horizon_2020 #camps_de_réfugiés #Croix-Rouge #Oxfam #religion #origine_ethnique #ethnie #orientation_sexuelle #données #EUMigraTool #risques #risques_politiques #twitter #réseaux_sociaux #opinion_publique #technologie #algorithme #discrimination #identification #Croix_Rouge

      ping @reka @isskein @karine4 @_kg_

  • Les montres intelligentes donnent des maux de tête aux médecins Violette Cantin - Le Devoir
    https://www.ledevoir.com/societe/733443/vigie-numerique-les-montres-intelligentes-donnent-des-maux-de-tete-aux-med

    Sébastien Marin, médecin de famille à l’urgence de l’hôpital Barrie Memorial, a témoigné mardi sur Twitter d’un diagnostic qu’il émet de plus en plus souvent : une Apple Watch défectueuse.

    Votre montre intelligente vous a récemment averti que vous ne dormiez pas suffisamment ou que votre fréquence cardiaque était anormalement élevée ? Prenez garde : elle n’est pas la meilleure conseillère quant à votre santé, préviennent deux spécialistes contactés par Le Devoir.

    Sébastien Marin, médecin de famille à l’urgence de l’hôpital Barrie Memorial, a fait part mardi sur Twitter d’un diagnostic qu’il pose de plus en plus souvent : une Apple Watch défectueuse.
    On a un nouveau diagnostique a l’urgence depuis quelques temps : “Apple watch défecteuse” .

 Pleins de gens viennent bien stressés car leurs Apple Watch indiquent des fréquences cardiaques a 140 bpm mais lorsque on la mesure, c’est 60 ????????‍♂️
    -- Sébastien Marin (@SebMarinMD) July 12, 2022

    « Des gens qui viennent attendre six heures aux urgences après avoir reçu une indication de leur montre, j’en ai vu souvent dans les deux ou trois derniers mois », raconte le Dr Marin. Il cite en exemple une montre qui indiquerait une saturation en oxygène du sang trop faible ou des battements de coeur trop rapides. « Les gens commencent à avoir peur s’ils ont l’impression que leur fréquence cardiaque n’est pas bonne », relève le médecin, qui dit les rassurer autant que possible.

    En cas de doute, la meilleure option demeure de guetter d’éventuels symptômes ou de mesurer sa fréquence cardiaque à la pharmacie avant de recourir au système de santé, note-t-il.

    Le sommeil n’est pas en reste
    Les montres intelligentes donnent aussi des informations sur le cycle de sommeil de leurs utilisateurs. Et ici aussi, ces indications peuvent poser problème.
     
    « Il faut mettre un grain de sel sur la fiabilité de ces montres, qui est modeste », indique le Dr Milan Nigam, neurologue et somnologue à l’hôpital du Sacré-Coeur de Montréal. Il dit lui aussi voir de plus en plus de patients inquiétés par les avertissements de leur montre intelligente. « En tant que médecin du sommeil, je ne peux qu’être content que les gens s’y intéressent davantage. Ils veulent s’outiller pour savoir comment l’améliorer, mais il peut y avoir des effets pervers à ça. »

    Il mentionne par exemple une montre qui indiquerait à une personne qu’elle n’a pas dormi suffisamment, ce qui peut la pousser à rester au lit plus longtemps, même si elle ne dort pas. « Mais quand on étire la durée du sommeil sur une plus longue période, le sommeil va être de moindre qualité », explique-t-il. À long terme, ces indications peuvent donc engendrer des comportements « délétères » chez certaines personnes.

    Cette quête obsessionnelle d’un sommeil parfait a même un nom : l’orthosomnie. « Ça arrive quand on devient trop préoccupé et anxieux par rapport à notre sommeil », précise-t-il, ajoutant que les indications des montres intelligentes peuvent devenir une source d’anxiété.

    Son conseil pour les gens qui croient souffrir d’un problème de sommeil ? Consulter leur médecin. « Les technologies [des montres intelligentes] ne sont pas si mal pour donner une approximation de la durée de notre sommeil, mais ça demeure modeste par rapport à ce qu’on peut faire dans un laboratoire.

     #santé #sante #surveillance #santé_publique #algorithme #apple #surveillance #algorithme #bigdata #gafam #technologisme #profiling #croyance #croyances #montres #objets_connectés

  • Les données numériques des femmes, armes de la justice américaine contre l’avortement ?
    https://www.rts.ch/info/sciences-tech/technologies/13190398-les-donnees-numeriques-des-femmes-armes-de-la-justice-americaine-contre

    La Cour suprême américaine pourrait remettre en cause le droit à l’avortement en laissant les Etats légiférer. Ceux qui interdiraient cet acte pourraient poursuivre des femmes en se basant sur leurs données numériques.
    La criminalisation de l’avortement pourrait prendre une tout autre dimension en utilisant les données numériques comme preuves au tribunal. L’achat d’un test de grossesse sur internet, une géolocalisation à proximité d’un centre de Planning familial ou des données de santé provenant d’une application de fitness sont des preuves qui pourraient être utilisées lors d’une action en justice.

    En 2017, une jeune Afro-Américaine du Mississippi a été inculpée de meurtre au 2ème degré de son enfant mort-né. L’accusation s’est basée sur une recherche qu’elle avait réalisée en ligne sur une pilule abortive. Même si elle a été relaxée en 2020, ces épisodes risquent de se généraliser.

    Des données précieuses pour une publicité ciblée
    Les données numériques des recherches effectuées sur Internet sont collectées et exploitées pour proposer de la publicité ciblée ou encore à d’autres fins.

    Selon une étude https://www.privacyinternational.org/long-read/3196/no-bodys-business-mine-how-menstruations-apps-are-sharing-your , les applications de suivi du cycle menstruel envoient des informations très personnelles sur la santé et les pratiques sexuelles des femmes directement à Facebook comme l’utilisation de contraceptifs, les dates de leurs règles, les symptômes et les humeurs.

    Les annonceurs s’intéressent à l’humeur des personnes car cela les aide à cibler stratégiquement les publicités à des moments où elles sont plus susceptibles d’acheter. Par exemple, les femmes enceintes, ou cherchant à le devenir, sont susceptibles de changer leurs habitudes d’achat.

    Pas de protection
    Dans un contexte de criminalisation de l’avortement, ces informations pourraient être intéressantes pour les services de police. Notamment aux Etats-Unis où, contrairement à l’Europe, aucune loi ne protège les citoyennes et les citoyens de l’utilisation de ces données numériques par la justice.

    En Europe, les données de santé sont considérées comme sensibles. Elles sont donc assujetties à des protections particulières par le Règlement Général de Protection des Données (ou le RGPD).

    En Suisse, le droit à l’avortement subit actuellement quelques pressions, sans pour autant être remis en question. Deux initiatives fédérales pour réduire le nombre d’IVG ont été lancées en 2021 : « La nuit porte conseil » et « Sauver les bébés viables ». La récolte des signatures court jusqu’en juin 2023.

    #femmes #usa #avortement #données #surveillance #facebook #santé #bigdata #algorithme #data #google #données_personnelles #profiling #vie_privée #flicage #smartphone #publicité

  • Marcq-en-Barœul, Wasquehal, Hem parmi les villes les plus cambriolées : la vidéosurveillance ne sert à rien
    https://actu.fr/hauts-de-france/marcq-en-baroeul_59378/marcq-en-baroeul-parmi-les-villes-les-plus-cambriolees-les-moyens-deployes-pour

    Marcq-en-Barœul (Nord) est apparue dans le top 20 des villes les plus cambriolées de France, tout comme Wasquehal. En réponse, la Ville détaille tous les moyens déployés pour sécuriser le territoire.

    Amer constat, pour les communes de la métropole lilloise Wasquehal et Marcq-en-Barœul, qui apparaissent dans le top 20 des villes https://www.lefigaro.fr/actualite-france/cambriolages-quels-sont-les-vrais-risques-dans-votre-ville-20220531 de plus de 20 000 habitants les plus cambriolées de France, selon un classement du Figaro. Interrogée sur ces données, découlant des chiffres du ministère de l’Intérieur, la Ville de Marcq-en-Barœul, par la voix de son adjoint à la tranquillité publique Alain Chastan, semble pourtant faire de la sécurité une priorité.

    Entre un dispositif de vidéosurveillance qui n’a cessé de s’étendre depuis une dizaine d’années, une police municipale active de jour comme de nuit, et une mairie à l’écoute de ses administrés, la réalité du terrain paraît en inadéquation avec la 20e place de la ville au classement. Précisions.

    L’objectif 300 caméras d’ici la fin du mandat
    La vidéosurveillance a été installée sur le territoire aussitôt qu’en 2010, explique Alain Chastan, Marcq-en-Barœul faisant office de précurseur à l’échelle de la métropole de Lille. À l’époque, une soixantaine de caméras fleurissent dans les rues ; elles sont aujourd’hui 210, avec l’objectif d’en avoir 300 d’opérationnelles d’ici la fin du mandat. « Et nous avons pris l’initiative de mettre des hommes, derrière les caméras, 7 jours/7, 365 jours de l’année », détaille l’élu. Ces « vidéo-opérateurs » sont aussi bien des policiers municipaux que des « gardes urbains », nom donné aux agents de surveillance de la voie publique (ASVP).

    Les 21 policiers municipaux, armés en tout temps, sont répartis dans deux équipes de jour, et une équipe de nuit. Cette dernière « travaille de 21h30 à 7h30 ». Une présence téléphonique est assurée 24h/24. 

    Il ne faut pas que les gens hésitent à nous appeler. Plutôt que de relayer des informations sur Facebook, il faut nous appeler pour une suspicion quelconque, afin qu’une patrouille se déplace. Et s’il ne se passe finalement rien, ce n’est pas grave !
    Alain Chastan,Adjoint à la tranquillité publique à Marcq-en-Barœul.

    Plus de 600 habitations surveillées pendant les vacances
    Pour les cambriolages, il faut savoir que la police municipale ne peut intervenir qu’en cas de flagrant délit. Autrement, c’est du ressort de la police nationale.

    Toutefois, les services de la Ville se montrent particulièrement attentifs aux demandes des habitants, notamment lors de la période estivale. « Nous participons à l’opération tranquillité vacances, principalement en juillet-août, et deux à trois patrouilles dans la semaine peuvent être opérées [dans certains quartiers] ». Pour les résidents, il suffit de notifier leur absence à la mairie. Jusqu’à 609 habitations ont été surveillées, dans ce cadre. 

    En 2021, la police municipale de Marcq-en-Barœul a réalisé plus de 3 000 interventions, quand 13 500 appels lui ont été passés. Elle a procédé à 88 interpellations. 

    #surveillance #algorithme #vidéo-surveillance #biométrie #facial #géolocalisation #police #reconnaissance #web #france #cambriolages

  • Des prix d’abonnement pourront être augmentés sans consentement sur l’App Store Radio Canada
    https://ici.radio-canada.ca/nouvelle/1884214/app-store-prix-abonnement-hausse-sans-consentement

    De nouvelles règles pour la boutique d’applications d’Apple, l’App Store, ont été annoncées cette semaine et elles pourraient avoir un effet sur votre portefeuille : les développeurs pourront dorénavant augmenter le prix d’abonnement à une application sans obtenir le consentement manifeste des utilisateurs et utilisatrices.

    Dans un billet de blogue destiné aux développeurs, Apple argue que cette mesure permettra aux personnes de ne pas voir leur accès à ces applications coupé si elles ont oublié d’appuyer sur un bouton donnant expressément leur aval à une hausse du prix.


    Apple a annoncé ces nouvelles règles en même temps que le déploiement d’une mise à jour iOS. - Photo : afp via getty images / CHRIS DELMAS

    Les entreprises devront seulement s’assurer d’aviser les utilisateurs et utilisatrices du changement de prix, mais elles pourront aller de l’avant avec des frais plus élevés pour les abonnements renouvelables automatiquement, sans avoir l’obligation d’obtenir un “oui ” ou un “non”, comme c’était le cas jusqu’à maintenant.

    Apple met une limite aux hausses de prix qui peuvent être appliquées de cette manière : elles ne doivent pas dépasser les 50 % du prix de l’abonnement précédent. L’augmentation ne doit pas être de plus de 7 $ pour les forfaits mensuels, et de 70 $ pour les formules annuelles.

    Cette nouvelle mesure entre en vigueur sur la majorité des territoires où l’App Store fait des affaires, dont le Canada.

    #apple #abonnement #app_store #smartphone #algorithme #bigdata #iphone #domination #gafam #bénéfices #publicité #technologisme #profiling

  • #Belgique : Pas de retour à la normale avant plusieurs jours dans les hôpitaux Vivalia suite à une cyberattaque durant la nuit de vendredi à samedi Benjamin Carlier- RTBF
    https://www.rtbf.be/article/pas-de-retour-a-la-normale-avant-plusieurs-jours-dans-les-hopitaux-vivalia-1099

    La cellule de crise des hôpitaux du groupe Vivalia s’est réunie une nouvelle fois ce matin. Un planning de reprise des laboratoires, de la radiologie et de la remise en service de l’application permettant d’accéder aux dossiers des patients y a été présenté par les services informatiques. Selon le directeur du groupe Vivalia, Yves Bernard, cela prendra encore quelques jours avant un retour à la normale : « Il a été décidé ce matin de reporter les consultations et les opérations de demain. » Seules les urgences seront traitées ce mardi. Les centres de prélèvements sanguins au sein des hôpitaux du groupe seront également toujours fermés.


    Tous les patients concernés ont été prévenus par le groupe hospitalier. Une nouvelle réunion de la cellule de crise est prévue demain matin pour évaluer la situation et envisager encore plus concrètement le redémarrage des activités.
     
    Pour rappel, voici le dispositif communiqué par Vivalia pour l’annulation des différents soins :
    – Les opérations non urgentes sont supprimées sauf exception après avis concerté.

    – Les consultations sont annulées, un SMS a été envoyé individuellement aux personnes ayant un rendez-vous ce jour. Certaines consultations pourraient être maintenues suivant l’appréciation du médecin concerné qui prendra alors contact avec son patient ;

    – La médecine d’urgences est bien entendu maintenue. Nous insistons sur la nécessité de ne contacter ou se présenter à nos urgences qu’en cas de nécessité. Merci de consulter au préalable votre médecin généraliste ou le 1733 en soirée. En cas d’admission dans nos urgences, merci aussi de vous munir de votre vignette de mutuelle pour faciliter votre identification par nos équipes de soins ;

    – Radiologie/scintigraphie : tous les examens programmés sont annulés ;

    – Centres de prélèvements et Centres Covid : toute l’activité est arrêtée.

    #Santé #Hôpital #hacking #cyberattaque #cyberguerre #malware #ransomware #algorithme #sécurité #sécurité_informatique #piratage #cybersécurité #cyberattaques #internet

    • Imaginons que les #intérimaires en fin de contrat, les #vacataires lors de leur dernier jour de travail cliquent systématiquement sur les spam et malware afin de contaminer le système informatique de leurs négriers.

      Idem dans les unités de production.
      Morceau de cuivre dans les produits, ou morceau de verre, contamination du lait en poudre contaminé au à la listéria, . . . .

      N’est ce pas là une explications des « alertes » alimentaires ou informatique ?

      Les esclaves peuvent saboter le système.
      Il y a des conséquences pour les autres, mais ces autres se foutent éperdument du sort des petites mains de notre société, qu’est pas belle du tout à regarder.

      On appelait cela du #sabotage à une autre époque, ressemblant beaucoup à celle que nous subissons.

  • Algospeak : les influenceurs, bilingues en censure automatisée - Par Thibault Prévost | Arrêt sur images
    https://www.arretsurimages.net/chroniques/clic-gauche/algospeak-les-influenceurs-bilingues-en-censure-automatisee
    https://api.arretsurimages.net/api/public/media/screenshot-2022-05-07-at-04-38-40-creez-des-collages-de-photos-en-ligne/action/show?format=thumbnail&t=2022-05-07T04:39:41+02:00

    Pour échapper aux robots-censeurs, les utilisateurs de TikTok et d’Instagram ont développé leur propre dialecte : l’algospeak. Une nouvelle preuve que, sur internet, même le langage a été privatisé.

    Sur TikTok, personne ne vous entendra parler de sexe, de santé mentale, d’automutilation, de suicide, d’addictions, de viol, d’avortement, de guerre, de violence et, globalement, de tout ce qui est considéré par vos invisibles maîtres algorithmiques comme des sujets « sensibles ». Sur Instagram, même combat. Sur YouTube, pareil. Si vous essayez, ne serait-ce qu’un peu, de mettre ces sujets en avant, dans le titre, le résumé ou le référencement – via les hashtags – de votre vidéo, la sanction tombe : suppression sans préavis, avec le risque que votre chaîne toute entière subisse le même sort pour outrage aux toutes-puissantes Conditions générales d’utilisation (CGU) de la plateforme en question. Ici-bas, code is law, le code fait loi, c’est comme ça et pis c’est tout – et d’ailleurs, de plus en plus souvent, sur les questions de modération, law is code. On ne négocie pas avec un logiciel de modération automatique. Mais de l’autre côté, au bout du clavier, des êtres humains ont des choses à dire sur ces sujets interdits. Alors, comment on fait ? On camoufle la langue, se marrent les créateurs et créatrices de contenu, qui ont apparemment tous pris la LV2 option algorithmes.

    #TikTok #RéseauxSociaux #Langage #Algorithme #Modération #Instagram

  • Australie : Facebook accusé d’avoir délibérément bloqué des pages gouvernementales pour empêcher le vote d’une loi
    https://www.lemonde.fr/pixels/article/2022/05/06/australie-facebook-accuse-d-avoir-deliberement-bloque-des-pages-gouvernement

    En 2021, le réseau social a bloqué en Australie certaines pages d’information sur le Covid-19 ou les catastrophes naturelles. Censée être « involontaire », la manœuvre visait en réalité à peser sur l’élaboration d’une loi à laquelle Facebook était défavorable, selon le « Wall Street Journal ».

    Par Nicolas Six

    En 2021, en pleine pandémie, Facebook a intentionnellement bloqué certaines pages du gouvernement, d’hôpitaux et de services d’urgence australiens afin de peser sur une loi qui s’apprêtait à être votée par Canberra, selon les informations publiées jeudi 5 mai par le Wall Street Journal.

    En février de cette année-là, le gouvernement australien cherche à imposer aux géants du numérique la rémunération des contenus journalistiques apparaissant sur leurs pages. Google cède mais Facebook – aujourd’hui rebaptisé Meta – se braque une semaine avant le vote de la loi, restreignant en réponse l’accès aux articles et vidéos de nombreux journaux australiens et internationaux. Au passage, le réseau social bloque également les pages d’organismes gouvernementaux informant sur l’épidémie du Covid-19 et plusieurs pages d’information sur les catastrophes naturelles, et ce quelques jours avant le début de la campagne nationale de vaccination et en pleine saison des incendies et inondations.
    Lire aussi Article réservé à nos abonnés L’Australie remontée par le « black-out » de Facebook

    Ces blocages, qualifiés à l’époque d’« involontaires » par Facebook, étaient en réalité délibérés, si l’on en croit les observations de plusieurs lanceurs d’alerte révélées par le Wall Street Journal. Selon leurs témoignages et des documents internes à l’entreprise, qui ont été transmis au département de la justice des Etats-Unis ainsi qu’à la Commission australienne de la concurrence et de la consommation, ces dépublications résultaient d’une stratégie pensée et sciemment mise en œuvre par la plate-forme.

    Les documents fournis par les lanceurs d’alerte montrent que plusieurs employés de Facebook ont tenté de faire remonter le problème

    Tout en affichant sa volonté de bloquer exclusivement des organes de presse, Facebook aurait ainsi employé un algorithme de tri dont l’entreprise savait pertinemment qu’il toucherait beaucoup d’autres publications. Les documents fournis par les lanceurs d’alerte montrent que plusieurs employés de Facebook ont tenté de faire remonter le problème et d’offrir des solutions, mais l’équipe en charge des dépublications leur aurait répondu de façon minimaliste ou dans des délais trop longs.

    A la suite de ces remontées internes, Facebook n’a pas arrêté sa campagne de dépublications : au contraire, ces dernières ont rapidement été généralisées à tous les utilisateurs australiens de la plate-forme, alors que seulement 50 % d’entre eux y étaient confrontés aux premières heures. Un signe d’empressement inhabituel, selon le Wall Street Journal, qui souligne que l’entreprise est habituellement beaucoup plus lente et prudente lorsqu’elle déploie de nouvelles fonctionnalités. « Il était clair que nous n’étions pas en train de nous conformer à la loi mais que nous étions en train de frapper des institutions publiques et des services d’urgence », a témoigné une membre de l’équipe chargée des suppressions.
    Les responsables de Facebook au courant

    Selon le quotidien américain, l’objectif était bien d’exercer une pression maximale sur le Parlement australien avant le vote de la loi exigeant une rémunération pour les articles de presse sur les plates-formes numériques.

    Cinq jours après les premières dépublications, la loi passait au vote, comme prévu, mais son texte était amendé d’une façon favorable à Facebook, conformément aux changements négociés la veille entre le réseau social et le gouvernement. Si la version initiale du texte avait été entérinée, l’entreprise aurait été contrainte d’entrer en négociation avec l’ensemble des éditeurs, sous la supervision de l’Etat. Or ces amendements lui ont permis de composer au cas par cas avec les médias de son choix : depuis lors, Facebook a négocié treize accords de rémunération avec des éditeurs de presse, selon un porte-parole de l’entreprise cité par le Wall Street Journal.
    Lire aussi Article réservé à nos abonnés En Australie, « Facebook sauve l’essentiel, sa liberté de négocier »

    Immédiatement après la conclusion de son accord avec le gouvernement australien, Facebook a débloqué l’accès aux pages gouvernementales, selon des documents internes à l’entreprise. Un changement qui n’aurait demandé qu’une petite modification de trois lignes de code informatique, d’après le Wall Street Journal. Signe supplémentaire d’une stratégie délibérée : dans les minutes suivant le vote du Parlement, la directrice des partenariats de Facebook, Campbell Brown, envoyait un e-mail aux équipes de Facebook vantant leur succès : « Nous sommes parvenus exactement à l’endroit que nous souhaitions. » Le directeur général de l’entreprise, Mark Zuckerberg, ainsi que sa numéro deux, Sheryl Sandberg, se sont également félicités par écrit de l’opération, Mme Sandberg saluant la « précision d’exécution » de cette stratégie.

    En réponse à l’enquête du journal américain, un porte-parole de Facebook nie les accusations portées à l’encontre de l’entreprise. « Ces documents montrent clairement que nous avions l’intention d’exempter les pages gouvernementales de restrictions afin de minimiser l’impact de cette législation nocive et malavisée. (…) Nous n’avons pu y parvenir en raison d’une erreur technique, nous nous en sommes excusés, et nous avons travaillé pour résoudre ce problème. Toute allégation contraire serait catégoriquement et clairement fausse. »

    Nicolas Six

    #Facebook #Australie #Algorithme #Editorialisation

  • Bulles de filtres et chambres d’écho - YouTube
    https://www.youtube.com/watch?v=i7d55LgDncM

    En plus de notre tendance à préférer les contenus qui confirment ce que l’on pense déjà - le « biais de confirmation » - les algorithmes contribuent à nous enfermer dans une bulle où rien ne pénètre, à part les informations auxquelles on adhère à priori. Faites-en l’expérience en cliquant seulement sur des vidéos de chats. Rapidement, votre fil de nouvelles sera envahi de chats !

    #Algorithmes #Information #Réseauxsociaux #SNT #GAFAM #Recherche #EMI

  • Management : « Les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles », Régis Martineau, Professeur à l’ICN Business School

    Le chercheur Régis Martineau explique, dans une tribune au « Monde », que nous sommes entrés dans une phase d’« oligarchie numérique », où les entreprises dominantes, comme les Gafam, dictent les règles dans presque tous les aspects de la vie et du travail.

    Les algorithmes s’appuient sur le big data et l’intelligence artificielle pour prédire et analyser les comportements des individus. Ils sont devenus essentiels, au cours de la dernière décennie, dans le fonctionnement des organisations : ils peuvent être utilisés pour mieux connaître les clients, faciliter une meilleure prise de décision, assurer une coordination plus fluide ou encore améliorer l’apprentissage organisationnel. Ils sont par ailleurs essentiels à l’économie de plate-forme et à l’industrie 4.0.

    Mais les algorithmes ne bouleversent pas seulement les modèles économiques ou la relation client, ils modifient aussi les modes de management. Ainsi, dans les organisations, est pratiqué de plus en plus le « management algorithmique », une nouvelle forme de management, qui s’appuie sur les algorithmes pour organiser les modes de production et de contrôle. Qu’y a-t-il de nouveau avec le management algorithmique ?

    Selon la synthèse réalisée récemment par des chercheurs de l’Institut de technologie du Massachusetts (MIT) et de l’université Stanford (Cafifornie), les algorithmes ont, comparés aux systèmes de contrôle traditionnels, trois caractéristiques qui les distinguent.
    Instantanés et interactifs
    Tout d’abord, ils permettent de capter davantage d’aspects du comportement humain : les dispositifs connectés peuvent désormais enregistrer avec plus d’acuité les mouvements corporels (jusqu’aux mouvements du visage et les données biométriques) et les pensées des salariés (à travers les vidéos et les enregistrements audio, mais aussi l’analyse des données textuelles).

    Cela permet de prescrire et d’encadrer le travail d’une manière nouvelle, souvent de manière beaucoup plus stricte et en temps réel. Par exemple, Uber analyse les données d’accélération et de freinage pour produire des « nudges » incitant les chauffeurs à prendre des pauses. Certaines entreprises analysent le vocabulaire utilisé et les sentiments exprimés sur les réseaux par les salariés ; quand d’autres localisent les employés qui interagissent fréquemment ensemble ou, au contraire, ceux qui s’isolent. D’autres utilisent même la reconnaissance faciale pour évaluer le moral de leurs employés.

    Ensuite, les algorithmes sont instantanés et interactifs : on peut maintenant davantage calculer, sauvegarder et communiquer des informations en temps réel. Cela a des conséquences importantes sur les modes d’évaluation des salariés, qui se fait de plus en plus instantanément à travers notamment les notes attribuées par les consommateurs.

    Amazon, Craigslist, Upwork, eBay, Uber, Lyft, Airbnb, TripAdvisor, pour ne citer que les plus connues, utilisent ces évaluations pour attribuer les commandes aux individus les mieux notés et rendre les « mal notés », ou ceux dont le comportement s’écarte de la prescription, moins visibles. Par ailleurs, les algorithmes utilisent cette instantanéité pour « gamifier » le travail, au travers d’applications qui utilisent les techniques de récompense ou d’incitation inventées dans le monde du jeu vidéo.

    Mêmes questions et mêmes réactions

    Enfin, les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles. La plupart des travailleurs ne saisissent pas complètement quels types de données sont collectés à leur sujet, comment elles sont utilisées ou comment les contester. De plus, avec le « machine learning », les algorithmes sont particulièrement difficiles à déchiffrer, y compris pour les spécialistes de l’intelligence artificielle eux-mêmes.
    Cette opacité rend le contrôle particulièrement strict et rend difficile le « gaming » (le jeu avec les règles), qui, traditionnellement, permet aux individus d’aménager des espaces de liberté dans l’entreprise.
    Lire aussi Article réservé à nos abonnés Entreprises : « Il faut avoir le courage de briser le silence à l’endroit où il doit l’être et oser nommer les abus managériaux qui ont pu en résulter »
    Voilà pour le « nouveau monde ». Cependant, l’« ancien monde » n’est jamais trop près de disparaître. En réalité, comparé aux formes traditionnelles du contrôle, le management algorithmique repose les mêmes questions et provoque les mêmes réactions, déjà bien connues.

    Rien de nouveau dans ces gestes répétitifs de travailleurs non qualifiés ; ce paiement à la (micro) tâche ; ces « journaliers » incertains d’être assignés à une tâche éphémère ; cette facilité de remplacement du facteur travail (par d’autres plus précaires ou par des machines) ; cette précarité qu’entraîne un contrat de travail non protecteur ; cette surveillance stricte… Autant d’éléments déjà bien décrits dans les romans de Steinbeck ou dans les films de Chaplin.

    Les joies du stakhanovisme

    De manière plus surprenante, on y renoue même avec les joies du stakhanovisme : les livreurs à vélo connaissent bien ce système qui indique le nombre de kilomètres parcourus, et qui les compare à ce livreur mythique, qui parcourt des distances chaque mois dignes d’un coureur du Tour de France… Au final, entre « gamification » et discours enthousiastes sur l’intelligence artificielle d’un côté ; et précarité et surveillance accrue de l’autre, les travailleurs transportent dans leurs poches un bien étrange Big Brother…
    Lire aussi : Article réservé à nos abonnés Mari-Noëlle Jégo-Laveissière : « Choisir l’“IA douce” contre l’“IA Big Brother” »
    L’histoire du management a montré que nous avons déjà connu des périodes où de nouvelles technologies venaient bouleverser les modes de management. A chaque fois, au début, ces nouvelles formes de management sont célébrées comme des innovations bénéfiques, tout en rendant le contrôle plus intrusif et plus strict ; et sont très peu débattues, malgré leurs implications humaine, éthique et juridique importantes. Ensuite, elles sont contrebalancées par des mouvements qui les font évoluer vers un management plus humain (par exemple, le mouvement des relations humaines avait répondu au taylorisme).

    Les sciences des organisations peuvent donc aider à prendre du recul sur les algorithmes et à penser des politiques adaptées. Selon des recherches historiques récentes, nous serions actuellement dans une phase d’« oligarchie numérique », c’est-à-dire un laisser-faire qui laisse le numérique – et les entreprises qui en sont les leaders, particulièrement les Gafam (Google, Apple, Facebook, Amazon et Microsoft) – se développer de manière incontrôlée, dans tous les aspects de la vie et du travail.

    Pour contrer ou mieux encadrer ce mouvement, les pouvoirs publics et les organisations collectives du travail doivent se saisir du sujet pour que les intérêts et les limites du numérique au travail soient collectivement et politiquement débattus, pour en venir à une « démocratie numérique ».

    https://www.lemonde.fr/idees/article/2022/04/26/management-les-algorithmes-sont-plus-opaques-que-les-methodes-de-controle-tr

    #travail #management #algorithmes

    • Dans les entreprises, l’essor du management par les algorithmes

      C’est le manageur dont le travail se voit aujourd’hui le plus transformé par l’intelligence artificielle (IA), affirme une étude de l’Organisation de coopération et de développement économiques (OCDE), publiée en décembre 2021. Juste derrière le professionnel de la finance. L’essor du big data dans les années 2000, couplée à l’utilisation de systèmes informatiques capables de traiter une quantité de données sans précédent, a permis le développement de logiciels ultra-perfectionnés, capables de participer aux décisions les plus stratégiques dans l’entreprise. Ainsi, 32 % environ des emplois risquent d’être modifié radicalement par le progrès technologique, estime une autre étude de l’OCDE parue en 2019. Selon l’organisme international, les fonctions supérieures d’encadrement et de décision sont les prochaines sur la liste.

      https://justpaste.it/4t53e

  • affordance.info : 4 questions aux algorithmes (et à ceux qui les font, et à ce que nous en faisons)
    https://www.affordance.info/mon_weblog/2022/04/4-questions-algorithmes.html
    https://www.affordance.info/.a/6a00d8341c622e53ef0282e14f7a64200b-600wi

    La problème de la transparence comme de la redevabilité, même en se limitant aux algorithmes publics, c’est qu’un « algorithme » est un fait calculatoire et décisionnel qui ne peut être isolé de faits sociaux qui en déterminent les causes et les effets. Un algorithme est développé par des gens, qui obéissent à d’autres gens, et qui sont tous pris dans des déterminismes et des contraintes économiques, professionnelles, politiques, sociales, etc. Penser que l’ouverture et et la redevabilité des algorithmes suffira à régler l’ensemble des problèmes qu’ils posent n’a pas davantage de sens que penser que l’étiquetage des denrées alimentaires résoudra les problèmes de malbouffe, d’obésité et de surproduction agricole.

    #SNT #NSI #EMI #algorithmes #Réseauxsociaux #Facebook #Moteurderecherche

  • Les États-Unis en quatre couleurs
    https://visionscarto.net/les-etats-unis-en-quatre-couleurs

    Titre : Les États-Unis en quatre couleurs Mots-clés : #Algorithmes #Coloriage #Contraintes Auteur : Philippe Rivière Date : Avril 2021 Un théorème de mathématiques démontre que quatre couleurs suffisent à colorier n’importe quelle carte (sans que deux régions contiguës ne partagent la même couleur, bien entendu). Dans la pratique, le coloriage peut se faire à la main en s’armant de patience, ou bien par des techniques algorithmiques dites de « programmation logique » ou de « programmation par (...) #Collection_cartographique

  • Larmes de crocodiles et oubli, suite au décès de madeleine albright, qui avait provoqué la mort de 500 000 enfants irakiens, c’est à dire plus qu’à Hiroshima en Nagasaki !

    Nos médias officiels font le silence sur le passé de cette ancienne secrétaire d’Etat américaine.

    Rappel : madeleine albright, secrétaire d’Etat de Clinton, avait ainsi répondu à une question sur le blocus US qui avait provoqué la mort de 500 000 enfants irakiens : « Je pense que c’était un choix difficile, mais oui, ça en valait la peine » . (Emission « Sixty Minutes » (CBS) du 12 mai 1996). L’interview a remporté un Emmy Award.

    En bonus, guerre en Serbie et au Kosovo.
    Fin octobre 2012, lors de la signature d’un livre dans la librairie de Prague Palác Knih Luxor, #madeleine_albright, recevant la visite d’un groupe de militants de l’organisation tchèque « Přátelé Srbů na Kosovu », qui avaient apporté des photos de guerre, dont certaines montraient des victimes serbes de la guerre du Kosovo de 1999, est filmée leur disant : « Sortez, Serbes dégoûtants ! 

    • Les étudiants de l’essec confrontés aux conséquences de ce qui est enseigné dans leur école. À Cergy, les étudiants de l’essec face à l’insécurité Nicolas Daguin - Le figaro

      Tout commence par un mail anonyme adressé au Figaro en novembre 2021. Un certain « Tyler », qui se présente comme un étudiant de l’Essec - l’une des premières écoles de commerce en France -, souhaite nous faire part du climat d’insécurité qui se serait installé autour du campus, situé à Cergy (Val-d’Oise). La situation aurait « énormément empiré » ces derniers temps et serait « devenue invivable », selon ses mots. Il est question d’agressions, de vols avec violence et même de tentatives d’enlèvements. Le jeune homme affirme aussi que « nombre d’étudiants [seraient] traumatisés et ne [voudraient] plus prendre de cours terminant après le coucher du soleil par peur de rentrer seuls la nuit ».

      S’il n’a personnellement jamais été victime d’aucune agression, Tyler assure que plusieurs de ses camarades n’ont pas eu sa chance. Ce dernier en veut pour preuve le groupe Facebook « ESSAFE », créé en 2017. « Nous l’avons ouvert après avoir constaté une recrudescence des agressions autour du campus, dans l’idée… ..

      La suite payante, mais on en a pas besoin : https://www.lefigaro.fr/actualite-france/ce-n-est-pas-normal-de-mettre-sa-vie-en-danger-pour-etudier-a-cergy-les-etu

      #essec #winner #écoles_de_commerce #management #valeurs #libéralisme #marketing #capitalisme

    • #belgique : Quatre nouveaux centres fermés pour personnes en séjour irrégulier forcées au retour
      https://www.vrt.be/vrtnws/fr/2022/03/23/quatre-nouveaux-centres-fermes-pour-personnes-en-sejour-irreguli

      Le gouvernement fédéral a approuvé la construction de trois nouveaux centres fermés et un centre de départ, créant ainsi plus de 500 places supplémentaires affectées au retour forcé de personnes en séjour irrégulier. Les autorités libèrent 100 millions d’euros pour un plan stratégique. Les nouveaux centres - prévus à Jabbeke, Zandvliet, Jumet et Steenokkerzeel - devraient permettre de presque doubler le nombre de places pour les personnes en séjour illégal d’ici 2030.


      Cette décision historique marque un véritable tournant. Nous créons plus de capacité de retour que jamais et pouvons faire un pas de géant dans la politique de retour de notre pays", soulignait le Secrétaire d’Etat à la Migration sammy mahdi. Les trois nouveaux centres pour migrants illégaux se situent à Jumet (près de Charleroi), à Zandvliet (près d’Anvers) et à Jabbeke (près de Bruges).Ce dernier remplacera d’ailleurs l’actuel centre fermé de Bruges.

      Un centre de départ sera par ailleurs établi à Steenokkerzeel (Zaventem) : les personnes n’y resteront idéalement qu’un jour ou deux pour permettre un retour rapide vers le pays d’origine. Le gouvernement fédéral a approuvé rapidement le marché public pour le développement de ce projet.

      La Belgique compte six centres fermés d’une capacité maximale de 635 places. Avec la construction de trois nouveaux centres et de ce centre de départ, la capacité totale passera à 1.145 places, soit plus de 500 supplémentaires par rapport à aujourd’hui. Les appels d’offre pour le bâtiment de Steenokkerzeel seront publiés cette semaine, la construction pouvant commencer en 2024. Pour les centres de Jabbeke, Jumet et Zandvliet, la construction est prévue entre 2027 et 2029.
      . . . . . .

      #centres_fermés pseudo #prisons #réfugiés #asile #migrations #racisme #police #frontières #migrants #migration

    • Le Royaume-Uni finance 4 caméras de vidéoprotection à Brighton, un hameau de Cayeux-sur-Mer
      https://actu.fr/hauts-de-france/cayeux-sur-mer_80182/le-royaume-uni-finance-4-cameras-de-videoprotection-a-brighton-un-hameau-de-cay

      Quatre caméras de vidéoprotection vont apparaître à Brighton-les-Pins, hameau de Cayeux-sur-Mer (2445 habitants), dans la Somme. Le projet est principalement financé par un fonds britannique.

      « Une opération blanche pour la commune. » C’est avec ces mots que Jean-Paul Lecomte qualifie le projet d’installation de 4 caméras de vidéoprotection dans le hameau de Brighton-les-Pins. En effet, le maire de Cayeux-sur-Mer (Somme) ne mettra pas la main au portefeuille.

      « C’est de l’argent qui tombe du ciel »
      « La situation est idéale pour la commune », commente-t-il. Pour cause, le Royaume-Uni finance une grosse partie de l’installation via un fonds de lutte contre l’immigration clandestine. Sur les 67 000 € du coût total du projet, 11 185 € seront financés par la Fédération Départementale d’Énergie (FDE).

      Les Britanniques apporteront leur pierre à l’édifice à hauteur de 55 923 €. « C’est de l’argent qui tombe du ciel », ironise l’élu.

      Les études de protection réalisées par la gendarmerie nationale ont reconnu deux zones à Cayeux-sur-Mer. La première s’étend du Hourdel à l’entrée de la ville. La seconde se situe plus au sud. À terme, une trentaine de caméras devraient être installées dans ces deux secteurs. Mais pour l’instant, la première tranche ne concerne que quatre caméras à Brighton-les-Pins.

      « Quatre départs de migrants ont été constatés dans la commune », se souvient l’édile. « Deux au sud et deux autres au niveau de la carrière de galets Silmer, à Brighton. »

      Une caméra sera donc placée à cet endroit. Les trois autres seront installées au niveau du foyer de vie, au phare et à l’entrée de la ville. Cette dernière permettra la lecture de plaques d’immatriculation notamment.


      Qui s’occupera de l’entretien des caméras ?
      Une petite interrogation avait tout de même été émise par Philippe Prouvost, conseiller municipal : « Qui s’occupera de l’entretien de ces caméras ? » Jean-Paul Lecomte a assuré que « l’installation et l’entretien seront gérés par la FDE qui passera par l’entreprise Citéos ».

      Le centre de visionnage des images captées par les caméras sera installé dans les locaux des agents de surveillance de la voie publique (ASVP). « Lorsqu’il y aura un problème dans ce coin, une seule personne sera habilitée à visionner ces images », explique le maire.

      Si la zone nord doit faire l’objet des attentions du conseil municipal en 2023, les dossiers pour ces quatre premières caméras viennent d’être envoyés à la préfecture. La date d’installation est encore floue.

      #foutage_de_gueule #surveillance #vidéo-surveillance #réfugiés #algorithme #migrations #police #france

  • Usbek & Rica - Tech Paf - L’obscénité de la mécanique du scrolling
    https://usbeketrica.com/fr/article/tech-paf-l-obscenite-de-la-mecanique-du-scrolling
    https://usbeketrica.com/uploads/media/1200x628/02/92782-scrolling+shutterstock.jpg?v=1-0

    La guerre en Ukraine révèle à quel point les algorithmes d’Instagram et notre tendance à scroller compulsivement nous font passer à côté des vraies informations. L’édito d’Elena Scappaticci, rédactrice en chef web de la plateforme d’Usbek & Rica.

    #EMI #Réseauxsociaux #Images #Algorithmes #Instagram

  • Hilarant ! : l’intelligence artificielle devrait contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030 Par Jean-François Noulet - RTBF

    Proximus lance « ADA » pour miser sur l’intelligence artificielle et la cybersécurité
    https://www.rtbf.be/article/proximus-lance-ada-pour-miser-sur-lintelligence-artificielle-et-la-cybersecurit
    L’intelligence artificielle et la cybersécurité sont au cœur du développement actuel de nos économies. L’intelligence artificielle, ce sont des en quelque sorte des ordinateurs robots, alimentés par des données numériques qui permettent de développer de nouvelles solutions dans de nombreux domaines, tels que la santé, l’énergie, la mobilité, notamment. Cette exploitation de quantités gigantesques données numériques va de pair avec un risque pour la sécurité informatique. La cybersécurité est un enjeu. C’est logique, les risques de cyberattaques augmentent avec l’accroissement de l’utilisation des données numériques. C’est pour se renforcer sur ces deux tableaux et devenir un acteur de premier ordre que Proximus lance « ADA », une filiale dédiée à l’intelligence artificielle et à la cybersécurité.


    Aider la société belge à relever les défis informatiques
    ADA, c’est d’abord un hommage et un clin d’œil à Ada Lovelace, une mathématicienne et écrivaine anglaise de la première moitié du 19e siècle. Elle est considérée comme une pionnière de la programmation informatique.

    Pour créer sa filiale, qui démarrera ses activités le 1er avril, Proximus est parti d’un constat : l’intelligence artificielle et la cybersécurité gagneront en importance dans les années à venir. Que ce soit pour aider à réduire la consommation d’énergie, prédire des erreurs dans les systèmes techniques, améliorer la détection de fraudes, l’intelligence devrait, selon les chiffres cités par Proximus, contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030. En Belgique, cela représenterait une contribution de 330 millions d’euros à l’horizon 2024, selon Proximus.

    Parallèlement au développement de cette nouvelle économie numérique, la cybersécurité est essentielle pour lutter contre les cyberattaques et protéger les activités et les données des particuliers et des entreprises.

    Dans ces domaines où les données sont importantes, Proximus estime être « bien placé pour y jouer un rôle de plus en plus important ». Le groupe belge a développé ces dernières années de l’expertise en la matière, tant en Belgique qu’à l’étranger, via certaines de ses filiales. Ainsi, TeleSign, spécialisé dans les services d’identité digitale et des solutions logicielles « est un partenaire de confiance pour 8 des 10 plus grandes entreprises du monde », affirme Proximus. BICS, autre filiale, est un leader mondial dans le domaine des communications digitales.

    La création de Proximus ADA devrait, selon Guillaume Boutin, le CEO de Proximus, « permettre d’accélérer cette position de leader » et « contribuer à faire de la société belge une société prête au futur ».

    Pour permettre à ce projet de se développer, le CEO de Proximus insiste sur la nécessité d’avoir « des réseaux de dernière génération » pour « permettre cette sécurisation des données ». Avoir des réseaux de « très haut débit » est, explique le CEO, essentiel. Il rappelle l’importance du déploiement de la fibre optique. 

    Miser sur les talents belges
    A son lancement, ADA emploiera une cinquantaine de collaborateurs. L’objectif est d’arriver à 150 personnes d’ici trois ans. Ce que recherche Proximus, ce sont des « experts locaux ». L’idée est de nouer « des collaborations avec le tissu éducatif belge », selon Guillaume Boutin pour qui il s’agit de « former et retenir les talents belges » pour renforcer les équipes d’experts de Proximus. Ingénieurs, spécialistes en cybersécurité et autres en formation sont donc dans le viseur des recruteurs du groupe de télécommunication.

    Ce que Proximus espère, c’est placer la Belgique au centre de l’échiquier mondial dans les deux domaines clés de la cybersécurité et de l’intelligence artificielle.

     #intelligence_artificielle #humour #algorithme #surveillance #ia #biométrie #vidéo-surveillance #bigdata #santé #technologie #facial #en_vedette #ai #transhumanisme

  • #Canada : Les sonnettes intelligentes Google Nest sont frileuses
    https://ici.radio-canada.ca/nouvelle/1863406/google-nest-froid-batterie

    L’hiver canadien est rude pour les nouvelles sonnettes intelligentes Google Nest. L’appareil, qui permet aux utilisateurs et utilisatrices de voir qui est à leur porte d’entrée à l’aide d’un téléphone intelligent, tolère mal le froid.

    Dans une note publiée cette semaine, Google mentionne que la pile lithium-ion de sa sonnette ne peut être rechargée sous 0 degrés Celsius. Elle peut toutefois continuer de fonctionner jusqu’à -20 degrés Celsius.

    Cette mise à jour survient après que bon nombre d’internautes eurent signalé sur les forums de Google que la pile de leur Google Nest s’était déchargée plus rapidement que d’habitude cet hiver, même lorsque le gadget était relié au câblage de leur maison.


    Les sonnettes Google Nest peuvent être installées avec ou sans câble. Dans les deux cas, la sonnette fonctionne avec l’énergie de sa pile. Photo : Capture d’écran de YouTube

    Le géant technologique explique que les fils électriques reliant les sonnettes aux domiciles ne chargent pas directement l’appareil.

    Au lieu de cela, la pile est rechargée au compte-gouttes par le courant qui passe par les câbles, et la sonnette fonctionne à partir de la charge de la pile.

    Par temps froid, Google recommande donc aux propriétaires de rentrer leur sonnette intelligente à l’intérieur afin de la recharger.

    #croyance en #Google #religion des #gafam #surveillance #algorithme #apple #domination #smartphone #internet #profiling #gafam #biométrie #facial #géolocalisation #géolocalisation

  • Censure des œuvres d’art sur les réseaux sociaux | Academie Des Beaux Arts
    https://www.academiedesbeauxarts.fr/censure-des-oeuvres-dart-sur-les-reseaux-sociaux

    Censure des œuvres d’art sur les réseaux sociaux : l’Académie des beaux-arts appelle à la vigilance

    De L’Origine du monde de Gustave Courbet à La Liberté guidant le peuple d’Eugène Delacroix, ou encore de la Descente de Croix de Pierre-Paul Rubens, aux photographies de Lucien Clergue en passant, 4000 ans plus tôt, par la Vénus de Willendorf, les exemples de censure sur les réseaux sociaux sont innombrables et entravent considérablement, chaque jour un peu plus, la promotion de l’Art sur ces médias incontournables.

    Les plateformes principales des réseaux sociaux ont en effet introduit dans leurs conditions d’utilisation que « leur politique en matière de diffusion ne permettait pas la nudité ou la nudité suggérée », ne faisant ainsi, par le biais de leurs algorithmes, aucune différence entre des œuvres d’art et des selfies et autres clichés personnels de nus portés à la vue de tous.

    Les membres de l’Académie des beaux-arts, réunis en séance plénière hebdomadaire ce mercredi 16 février 2022, considèrent que les plateformes de diffusion ne sauraient s’arroger le droit de censurer la diffusion d’une œuvre d’art au seul motif que la représentation de celle-ci n’entre pas complètement dans les critères qu’elles ont établis.

    Cette situation ubuesque impose une réaction légitime de l’Académie des beaux-arts qui appelle à se poser la question de la liberté de la diffusion de l’information et des moyens à mettre en œuvre pour la protéger.

    #Censure #Médias_sociaux #Algorithmes

  • Au fait, pourquoi tu likes ?
    https://flint.media/posts/188-au-fait-pourquoi-tu-likes

    S’ils permettent de montrer notre assentiment ou de sauvegarder des éléments, les likes participent de ce qu’on appelle le “bruit” en ligne, l’une des causes du mal-être informationnel que l’on évoque depuis plusieurs semaines. Réfléchir à leurs impacts peut permettre d’adapter l’usage qu’on en fait.

    #RéseauxSociaux #EMI #Algorithme #Information

  • Crisis Text Line, from my perspective | danah boyd | apophenia
    http://www.zephoria.org/thoughts/archives/2022/01/31/crisis-text-line-from-my-perspective.html

    Passionnant. Les questions que se pose danah boyd sur les questions éthiques liée à l’activité d’aide et de conseil par texto avec des personnes en grande difficulté mentales (appels à l’aide en situations de crise, voire de suicide). Comment et faut-il utiliser les données que constituent ces échanges ? Que veut dire « consentement » quand on a affaire à des personnes en situation de crise psychologique ? Comment former les conseillers qui répondent aux personnes en difficulté ? Peut-on trouver des patterns dans les échanges qui permettent de prioritiser les réponses en fonction de l’urgence détectée par algorithme ? Enfin, comment financer l’activité des organisations bénévoles et hors marché quand les entreprises et l’Etat ne donnent pas les moyens réels de remplir des missions sociales pourtant nécessaires ?

    Un très long texte, honnête dans son positionnement, ouvert dans ses questionnement, et bien loin des réponses en noir & blanc.

    Like everyone who cares about Crisis Text Line and the people we serve, I have spent the last few days reflecting on recent critiques about the organization’s practices. Having spent my career thinking about and grappling with tech ethics and privacy issues, I knew that – had I not been privy to the details and context that I know – I would be outraged by what folks heard this weekend. I would be doing what many of my friends and colleagues are doing, voicing anger and disgust. But as a founding board member of Crisis Text Line, who served as board chair from June 2020 until the beginning of January 2021, I also have additional information that shaped how I thought about these matters and informed my actions and votes over the last eight years.

    As a director, I am currently working with others on the board and in the organization to chart a path forward. As was just announced, we have concluded that we were wrong to share texter data with Loris.ai and have ended our data-sharing agreement, effective immediately. We had not shared data since we changed leadership; the board had chosen to prioritize other organizational changes to support our staff, but this call-to-action was heard loud and clear and shifted our priorities. But that doesn’t mean that the broader questions being raised are resolved.

    Texters come to us in their darkest moments. What it means to govern the traces they leave behind looks different than what it means to govern other types of data. We are always asking ourselves when, how, and should we leverage individual conversations borne out of crisis to better help that individual, our counselors, and others who are suffering. These are challenging ethical questions with no easy answer.

    What follows is how I personally thought through, balanced, and made decisions related to the trade-offs around data that we face every day at Crisis Text Line. This has been a journey for me and everyone else involved in this organization, precisely because we care so deeply. I owe it to the people we serve, the workers of Crisis Text Line, and the broader community who are challenging me to come forward to own my decisions and role in this conversation. This is my attempt to share both the role that I played and the framework that shaped my thinking. Since my peers are asking for this to be a case study in tech ethics, I am going into significant detail. For those not seeking such detail, I apologize for the length of this.

    Most of the current conversation is focused on the ethics of private-sector access to messages from texters in crisis. These are important issues that I will address, but I want to walk through how earlier decisions influenced that decision. I also want to share how the ethical struggles we face are not as simple as a binary around private-sector access. There are ethical questions all the way down.

    #danah_boyd #Crisis_Text_Line #Santé_mentale #Algorithmes #Formation #Données_médicales

  • Le média en ligne « #QG » dénonce sa « #censure » par YouTube

    « Le reste de la presse devrait se réveiller. Sinon, qui empêchera Youtube, et les autres plateformes, de déterminer qui peut parler et qui doit être réduit au silence ? »
    https://reporterre.net/Le-media-en-ligne-QG-denonce-sa-censure-par-YouTube

    Dans un tweet posté le 31 janvier, le média en ligne QG dénonce son « shadow banning » (« bannissement fantôme ») par la plateforme de diffusion de vidéos YouTube. Ce bannissement est en fait une #invisibilisation : les #algorithmes de #YouTube rendent peu visibles aux internautes les sujets présentés par le média.

    Cette invisibilisation, explique à Reporterre Aude Lancelin, directrice de QG, a commencé en juillet 2021, à la suite de la participation du professeur Christian Perronne à un #débat [ démocratique équilibré ] avec le docteur Jean-Michel Constantin, du service de réanimation de l’hôpital Pitié-Salpêtrière. M. Perronne défend des positions mettant en doute l’utilité des vaccins Pfizer et Moderna contre le Covid. « Il était confronté à un médecin hospitalier qui l’a contredit pied à pied », précise Aude Lancelin. Le débat a été diffusé en mai 2021. Un best off a ensuite été diffusé en juillet 2021. La vidéo entière de l’émission a alors été supprimée par YouTube, qui a envoyé un « avertissement » à QG. Motif : « violation des droits de YouTube » et un contenu « pas en accord avec notre règlement à ce sujet ».


    « Il s’agit d’une censure qui ne dit pas son nom »

    Depuis, le nombre de vues des vidéos de QG vues sur YouTube, quel qu’en soit le sujet, sont à un niveau très bas, alors que sur Facebook, il reste à son niveau habituel. Dans un courriel à YouTube, le média en ligne écrit : « Nous observons une baisse significative du nombres de vues sur nos vidéos. De plus, après plusieurs essais, nous avons constaté que certains contenus exactement identiques aux nôtres mais postés sur des chaînes différentes réalisaient un nombre de vues bien supérieur, sur des chaînes dont le nombre d’abonnés est comparable à la nôtre. (…) La baisse de visibilité est réellement significative depuis que nous avons reçu cet avertissement. (…) YouTube a été un des leviers majeurs de notre essor et cette soudaine invisibilisation pourrait mener à des conséquences néfastes à terme. » QG n’a reçu aucune réponse de YouTube.

    « Il s’agit d’une censure qui ne dit pas son nom », dit Aude Lancelin à Reporterre. « On n’a pas fait énormément de contenus sur ce sujet, mais il faut donner la parole, non pas à des fous, mais à ceux qui discutent le passe vaccinal et qui discutent l’obligation vaccinale. » Elle précise que QG a suivi des manifs de Gilets jaunes contre le passe vaccinal, « mais jamais Philippot [leader d’extrême droite venant du Rassemblement national] et les gens de cette mouvance ».

    YouTube opère souvent des retraits de vidéos selon des critères opaques

    QG, qui compte une équipe d’une dizaine de personnes dont cinq journalistes, est un média reconnu par la CPPAP (Commission paritaire des publications et agences de presse), et membre du syndicat de la presse indépendante d’information en ligne (le Spiil), dont font partie de nombreux #médias-indépendants, tels Reporterre ou Mediapart.

    YouTube opère souvent des retraits de vidéos selon des critères opaques. En janvier 2022, la plateforme a retiré un discours à… l’Assemblée nationale du député La France insoumise Bastien Lachaud.

    Reporterre a cherché à joindre YouTube France pour connaître son point de vue. Mais il n’a pas été possible de parler à une personne humaine, le standard téléphonique n’ouvrant pas la possibilité d’un tel échange.

    • Pour chaque Post d’articles de Reporterre le fan-club des « anticomplotistes » :p se déchaîne désormais contre lui. Bientôt plus personne Ici va oser le référencer sans être taxer de complotiste ou de confusionniste ou même de (beurk) covidonégationniste !

      Je m’attend au pire avec celui là !

    • Remettre en question la politique autoritaire (censure de Médias indépendants comme Nantes Révoltée et QG par la plateforme Youtube ) ni surtout la #politique-non-sanitaire en Macronie mais pas que, est désormais suspect !

      Pourtant au Sénat, Véran ...

      « Le ministre des Solidarités et de la Santé, Olivier Véran, a été auditionné ce 2 février 2022 par la commission d’enquête du Sénat sur l’influence des cabinets conseil. La rapporteure lui a demandé des explications, en lui soumettant plusieurs documents auxquels a participé le cabinet McKinsey. »
      https://www.youtube.com/watch?v=hnQvDere0Zg

      Véran avoue carrément que #McKinsey n’est mentionné sur aucun des documents qu’ils ont rédigés puisque c’est toujours le logo du ministère de la santé qui apparaît dessus.

      Tout est toujours flou en #macronie parce que tout n’est qu’arnaque…

      Cette scène surréaliste où Véran bafouille, tempête et nie l’évidence quand on lui explique qu’on a payé 700 000€ 2 personnes de #McKinsey pour des missions floues, c’est l’illustration parfaite du vol en bande organisé auquel se livrent #Macron-et-sa-bande.

      La première action de n’importe quel nouveau président devait être de lever le #secret-défense sur cet iceberg de magouilles, dont on devine que la partie immergée est immense, qu’est la politique non-sanitaire de cette fine équipe de truands…

      Ils en pensent quoi les candidats ?

      Véran explique au Sénat qu’il a dépensé 26,8 millions en cabinets de conseil depuis 2020 pour des plans moisis qui ne l’ont soit-disant pas aidé à prendre ses décisions, sans qu’on sache ce qui vient de #McKinsey ou de l’administration.

      L’arnaque du siècle !

      #VeranDemission

      https://www.publicsenat.fr/article/parlementaire/a-aucun-moment-mckinsey-ne-m-a-fait-prendre-une-decision-en-lien-avec-la

      Il n’y a pas une once d’humanité dans la politique de Macron.

      Ce n’est pas un rempart, c’est déjà le fascisme !

  • Le Royaume-Uni suspend le déploiement de ses autoroutes sans bande d’arrêt d’urgence
    https://www.lefigaro.fr/flash-eco/le-royaume-uni-suspend-le-deploiement-de-ses-autoroutes-sans-bande-d-arret-

    Le gouvernement britannique a annoncé mercredi 12 janvier la suspension de l’extension de son réseau d’autoroutes « intelligentes » sans bande d’arrêt d’urgence le temps d’approfondir l’évaluation de leur sécurité, mise en cause après plusieurs accidents mortels. Cette pause, suivant les recommandations d’une commission parlementaire, doit permettre d’analyser sur cinq années la sécurité des voies de ce type introduites avant 2020, selon un communiqué du ministère des Transports.


    Les autoroutes dites intelligentes permettent d’augmenter le trafic sans élargissement coûteux, en transformant la bande d’arrêt d’urgence en voie de circulation, avec un système de caméras et de signalisation en temps réel en cas de panne de véhicule ou d’accident. Jevanto Productions / stock.adobe.com

    Selon les médias britanniques, le réseau routier britannique comprend environ 600 kilomètres (375 miles) d’autoroutes dites « intelligentes », dont 375 km (235 miles) sans bande d’arrêt d’urgence, et 38 personnes au total y ont perdu la vie entre 2014 et 2019, certaines percutées dans des véhicules arrêtés sur la chaussée. 480 kilomètres supplémentaires (300 miles) étaient prévus d’ici à 2025.

    Ces autoroutes permettent d’augmenter la capacité de trafic sans élargissement coûteux, en transformant la bande d’arrêt d’urgence en voie de circulation, avec un système de caméras et de signalisation en temps réel en cas de panne de véhicule ou d’accident, mais leur sécurité fait débat. En septembre dernier, le journal à grand tirage Daily Mail avait affirmé qu’une caméra de surveillance sur dix était en panne, inopérante ou orientée dans la mauvaise direction.

    Si « les données disponibles montrent que les autoroutes intelligentes sont comparativement les routes les plus sûres en termes de taux de mortalité », le gouvernement veut s’assurer que celles qui sont dépourvues de bande d’arrêt d’urgence « sont équipées de la meilleure technologie » et des ressources pour qu’elles soient « aussi sûres que possible », explique dans un communiqué le ministère des Transports.

    Celui-ci a annoncé dans le même temps un investissement de 900 millions de livres sterling (plus d’un milliard d’euros) pour améliorer la sécurité des infrastructures existantes, notamment en installant 150 refuges supplémentaires où peuvent s’arrêter les véhicules, soit une augmentation de 50% d’ici 2025.

    #autoroutes_intelligentes #caméras #surveillance #algorithme #bêtise #transport #autoroutes #transports

  • Le rayonnement des smartphones est pire que celui des antennes 5G ats/aes
    https://www.rts.ch/info/sciences-tech/technologies/12753094-le-rayonnement-des-smartphones-est-pire-que-celui-des-antennes-5g.html

    Les nouvelles antennes de téléphonie mobile 5G sont combattues par plus de 3000 oppositions. Mais pour l’épidémiologiste Martin Röösli, le problème ne concerne pas tant le rayonnement de ces infrastructures que celui des téléphones portables, surtout lorsque la couverture réseau est faible.

    Un smartphone émet un rayonnement 100 à 1000 fois plus fort sur le corps qu’une antenne de téléphonie mobile 5G, explique Martin Röösli dans le quotidien Walliser Bote mercredi. Et pour un appareil qui n’a presque pas de réception réseau, c’est pire : il émet ainsi jusqu’à un million de fois plus de rayonnement qu’un natel qui bénéficie d’une bonne réception.

    En Suisse, les valeurs limites des antennes de téléphonie mobile sont 50 fois plus basses que celles qui causent des dommages avérés pour la santé. Compte tenu de la grande marge de sécurité dans ce domaine, il y a matière à discussion, et une augmentation des valeurs limite est une décision qui relève de la politique, estime l’expert. Mais les valeurs limite devraient être plus contrôlées, ajoute-t-il.

    Appliquer le principe du pollueur-payeur ?
    Pour l’épidémiologiste, il est important que le principe du pollueur-payeur s’applique aussi à la téléphonie mobile. Les opérateurs utilisent des technologies émettant des rayonnements ; ils devraient donc contribuer à la résolution du problème.

    Martin Röösli dirige l’unité Environnement et santé à l’Institut tropical et de santé publique (Swiss TPH) associé à l’Université de Bâle. Il étudie depuis 20 ans les effets du rayonnement de la téléphonie mobile et est membre de la Commission internationale de protection contre les rayonnements non ionisants. Cette commission participe à l’établissement de valeurs limites pour les téléphones portables et les antennes.

     #smartphone #5g #santé #technologisme #nécrotechnologies #rayonnement #géolocalisation #téléphonie #surveillance #algorithme #santé #bigdata #google #apple #facebook #covid-19 #écoutes #technologisme #contacttracing #métadonnées #biométrie #pollution

  • Attentat ? Explosion de gaz ? Bombe ? Terminator ? Non, une tesla tout simplement Assistance à la conduite

    https://www.youtube.com/watch?v=2RKIJNm-lfQ

    L’essentiel, c’était de supprimer le levier de frein à main.

    Bon, juste avant c’était certains qui ne pouvaient pas accéder à leur bagnole à cause d’un bug dans le serveur...

    #tesla #voiture_autonome #voiture #elon_musk #automobile #algorithme #innovation #disruption #technologisme #transport #robotisation #voiture_électrique #spacex #Paris