• GRR contre GPT : l’auteur de Game of Thrones attaque OpenAI
    https://actualitte.com/article/113522/droit-justice/grr-contre-gpt-l-auteur-de-game-of-thrones-attaque-openai

    De l’autre côté de l’Atlantique, l’intelligence artificielle ne fait pas vraiment rêver les auteurs. Ou, plutôt, la manière dont sont conçus les outils d’OpenAI ou de Meta les interroge : entraînés à l’aide de textes, ils s’appuient aussi sur leurs œuvres, sans autorisation ni compensation. Une action collective en justice s’organise contre OpenAI (ChatGPT), avec quelques grands noms, dont G.R.R. Martin, Jodi Picoult, John Grisham ou encore Jonathan Franzen.

    Dans un communiqué, l’Authors Guild assure que, « sans les œuvres des plaignants, [OpenAI] proposerait des produits très différents », selon les termes de l’avocate Rachel Geman. « Le choix de copier les œuvres des plaignants, sans leur autorisation et sans verser de compensation, constitue une menace pour les auteurs et leurs revenus. »

    Les intelligences artificielles derrière les outils comme ChatGPT sont entrainées à l’aide d’un volume massif de données, et notamment des textes accessibles en ligne. Ces derniers sont « lus » et traités par les algorithmes, afin d’en améliorer la vélocité, la compréhension des requêtes, mais aussi la cohérence des réponses fournies.

    L’utilisation de textes couverts par le copyright par les sociétés de développement des intelligences artificielles a soulevé de nombreuses questions ces derniers mois. D’autant plus que l’accès à ces textes pourrait avoir été réalisé via des plateformes pirates, dont Library Genesis, Z-Library, Sci-Hub ou encore Bibliotik... Un moyen d’accéder à des réservoirs massifs de textes, sans alourdir la facture.

    Par ailleurs, les auteurs reprochent aux créateurs d’IA de s’être passés de leur autorisation, mais aussi d’avoir omis de verser une compensation et d’avoir oublié toute notion de mention des sources.

    En juillet, l’Authors Guild avait publié une lettre ouverte, cosignée par plus de 10.000 auteurs américains, réclamant plusieurs promesses des sociétés visées. Elles devaient, pour satisfaire l’organisation, s’engager « à obtenir le consentement, à créditer et à rémunérer équitablement les auteurs pour l’utilisation d’écrits protégés par le droit d’auteur à des fins d’entrainement de l’intelligence artificielle ». Visiblement, les discussions ne se sont pas déroulées comme prévu...

    Enfin, l’Authors Guild assure que l’entrainement de ChatGPT par des créations littéraires permet à cette intelligence artificielle d’imiter le style de leurs auteurs, menaçant l’intégrité de leur œuvre et leur identité.

    GPT est déjà utilisé pour générer des livres qui singent les travaux d’auteurs humains, comme la tentative récente de générer les volumes 6 et 7 de la saga Le Trône de fer de George R.R. Martin le montre, ainsi que d’autres ouvrages de l’IA postés sur Amazon pour essayer d’usurper l’identité et la réputation d’auteurs humains.

    – L’Authors Guild

    #Intelligence_artificielle #Auteurs #Plainte #Author_Guild

  • Data & Society — Democratizing AI: Principles for Meaningful Public Participation
    https://datasociety.net/library/democratizing-ai-principles-for-meaningful-public-participation

    As AI is deployed in ways that dramatically shape people’s lives and opportunities, the public has little input into its use. In light of this, there are increasing calls to integrate democratic and human-centered values into AI through public participation. 
    Public participation enables the people who are most likely to be affected by a given system to have influence into that system’s design and deployment, including decision-making power. Evidence from multiple fields indicates that, when done right, public participation helps to avert harmful impacts of new projects. Input from the public can result in concrete improvements to a program, or in the rejection of proposals that community members did not support. It brings a range of social and cultural values into decision-making above and beyond narrow technical parameters. Public participation adds legitimacy to decisions because people trust processes they understand and influence. It improves accountability by adding layers of scrutiny and discussion between the public and decision-makers. 
    Yet public participation is difficult to do well, and its mechanisms can backfire if they are not carefully designed. Fortunately, policymakers do not need to design public participation for AI from scratch. Building on a comprehensive review of evidence from public participation efforts in policy domains such as anti-poverty programs and environmental policy, in Democratizing AI: Principles for Meaningful Public Participation Michele Gilman summarizes evidence-based recommendations for better structuring public participation processes for AI, and underscores the urgency of enacting them.

    #Intelligence_artificielle #Régulation #Participation_citoyenne

  • Blueprint for an AI Bill of Rights | OSTP | The White House
    https://www.whitehouse.gov/ostp/ai-bill-of-rights

    Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent.

    These outcomes are deeply harmful—but they are not inevitable. Automated systems have brought about extraordinary benefits, from technology that helps farmers grow food more efficiently and computers that predict storm paths, to algorithms that can identify diseases in patients. These tools now drive important decisions across sectors, while data is helping to revolutionize global industries. Fueled by the power of American innovation, these tools hold the potential to redefine every part of our society and make life better for everyone.

    This important progress must not come at the price of civil rights or democratic values, foundational American principles that President Biden has affirmed as a cornerstone of his Administration. On his first day in office, the President ordered the full Federal government to work to root out inequity, embed fairness in decision-making processes, and affirmatively advance civil rights, equal opportunity, and racial justice in America.[i] The President has spoken forcefully about the urgent challenges posed to democracy today and has regularly called on people of conscience to act to preserve civil rights—including the right to privacy, which he has called “the basis for so many more rights that we have come to take for granted that are ingrained in the fabric of this country.”[ii]

    To advance President Biden’s vision, the White House Office of Science and Technology Policy has identified five principles that should guide the design, use, and deployment of automated systems to protect the American public in the age of artificial intelligence. The Blueprint for an AI Bill of Rights is a guide for a society that protects all people from these threats—and uses technologies in ways that reinforce our highest values. Responding to the experiences of the American public, and informed by insights from researchers, technologists, advocates, journalists, and policymakers, this framework is accompanied by From Principles to Practice—a handbook for anyone seeking to incorporate these protections into policy and practice, including detailed steps toward actualizing these principles in the technological design process. These principles help provide guidance whenever automated systems can meaningfully impact the public’s rights, opportunities, or access to critical needs.

    #Intelligence_artificielle #Maison_Blanche #AI_Bill_of_Rights #Régulation

  • Elon Musk, Sam Altman and Mark Zuckerberg Discuss AI with Lawmakers in Washington - The New York Times
    https://www.nytimes.com/2023/09/13/technology/silicon-valley-ai-washington-schumer.html?nl=todaysheadlines&emc=edit_th_20

    Elon Musk, Sam Altman, Mark Zuckerberg, Sundar Pichai and others discussed artificial intelligence with lawmakers, as tech companies strive to influence potential regulations.

    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.Credit...Haiyun Jiang for The New York Times
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Cecilia Kang

    By Cecilia Kang

    Reporting from Washington
    Sept. 13, 2023

    Elon Musk warned of civilizational risks posed by artificial intelligence. Sundar Pichai of Google highlighted the technology’s potential to solve health and energy problems. And Mark Zuckerberg of Meta stressed the importance of open and transparent A.I. systems.

    The tech titans held forth on Wednesday in a three-hour meeting with lawmakers in Washington about A.I. and future regulations. The gathering, known as the A.I. Insight Forum, was part of a crash course for Congress on the technology and organized by the Senate leader, Chuck Schumer, Democrat of New York.

    The meeting — also attended by Bill Gates, a founder of Microsoft; Sam Altman of OpenAI; Satya Nadella of Microsoft; and Jensen Huang of Nvidia — was a rare congregation of more than a dozen top tech executives in the same room. It amounted to one of the industry’s most proactive shows of force in the nation’s capital as companies race to be at the forefront of A.I. and to be seen to influence its direction.

    It was unclear if any concrete proposals would result from the meeting, the first of a series of such gatherings. But the tech executives took the opportunity to push for their agendas.

    Mr. Karp of Palantir said he was able to deliver his message that the government should support A.I. in the defense sector, which includes his company’s main customers. “There was striking unanimity that America be the leader on A.I.,” he said in an interview.

    Most of the executives agreed on the need for regulating A.I., which has been under scrutiny for its transformative and risky effects.

    But there was still disagreement, attendees said. Mr. Zuckerberg highlighted open-source research and development of A.I., which means that the source code of the underlying A.I. systems are available to the public.

    “Open source democratizes access to these tools, and that helps level the playing field and foster innovation for people and businesses,” he said.

    Others, like Jack Clark of the A.I. start-up Anthropic and Mr. Gates, raised concerns that open-source A.I. could lead to security risks, attendees said. Anthropic, Google and OpenAI have said open source can allow outsiders to get past safety guardrails and spread misinformation and other toxic material.

    Mr. Musk, who has called for a moratorium on the development of some A.I. systems even as he has pushed forward with his own A.I. initiatives, was among the most vocal about the risks. He painted an existential crisis posed by the technology.

    #Intelligence_artificielle #Régulation #Asilomar

  • Deepfakes of Chinese influencers are livestreaming 24/7 | MIT Technology Review
    https://www.technologyreview.com/2023/09/19/1079832/chinese-ecommerce-deepfakes-livestream-influencers-ai

    Scroll through the livestreaming videos at 4 a.m. on Taobao, China’s most popular e-commerce platform, and you’ll find it weirdly busy. While most people are fast asleep, there are still many diligent streamers presenting products to the cameras and offering discounts in the wee hours.

    But if you take a closer look, you may notice that many of these livestream influencers seem slightly robotic. The movement of their lips largely matches what they are saying, but there are always moments when it looks unnatural.

    These streamers are not real: they are AI-generated clones of the real streamers. As technologies that create realistic avatars, voices, and movements get more sophisticated and affordable, the popularity of these deepfakes has exploded across China’s e-commerce streaming platforms.

    Today, livestreaming is the dominant marketing channel for traditional and digital brands in China. Influencers on Taobao, Douyin, Kuaishou, or other platforms can broker massive deals in a few hours. The top names can sell more than a billion dollars’ worth of goods in one night and gain royalty status just like big movie stars. But at the same time, training livestream hosts, retaining them, and figuring out the technical details of broadcasting comes with a significant cost for smaller brands. It’s much cheaper to automate the job.

    The technology has mostly been known for its problematic use in revenge porn, identity scams, and political misinformation. While there have been attempts to commercialize it in more innocuous ways, it has always remained a novelty. But now, Chinese AI companies have found a new use case that seems to be going quite well.

    Back then, Silicon Intelligence needed 30 minutes of training videos to generate a digital clone that could speak and act like a human. The next year, it was 10 minutes, then three, and now only one minute of video is needed.

    And as the tech has improved, the service has gotten cheaper too. Generating a basic AI clone now costs a customer about 8,000 RMB ($1,100). If the client wants to create a more complicated and capable streamer, the price can go up to several thousands of dollars. Other than the generation, that fee also covers a year of maintenance.

    Once the avatar is generated, its mouth and body move in time with the scripted audio. While the scripts were once pre-written by humans, companies are now using large language models to generate them too.

    Now, all the human workers have to do is input basic information such as the name and price of the product being sold, proofread the generated script, and watch the digital influencer go live. A more advanced version of the technology can spot live comments and find matching answers in its database to answer in real time, so it looks as if the AI streamer is actively communicating with the audience. It can even adjust its marketing strategy based on the number of viewers, Sima says.

    These livestream AI clones are trained on the common scripts and gestures seen in e-commerce videos, says Huang Wei, the director of virtual influencer livestreaming business at the Chinese AI company Xiaoice. The company has a database of nearly a hundred pre-designed movements.

    “For example, [when human streamers say] ‘Welcome to my livestream channel. Move your fingers and hit the follow button,’ they are definitely pointing their finger upward, because that’s where the ‘Follow’ button is on the screen of most mobile livestream apps,” says Huang. Similarly, when streamers introduce a new product, they point down—to the shopping cart, where viewers can find all products. Xiaoice’s AI streamers replicate all these common tricks. “We want to make sure the spoken language and the body language are matching. You don’t want it to be talking about the Follow button while it’s clapping its hands. That would look weird,” she says.

    Spun off from Microsoft Software Technology Center Asia in 2020, Xiaoice has always been focused on creating more human-like AI, particularly avatars that are capable of showing emotions. “Traditional e-commerce sites just feel like a shelf of goods to most customers. It’s cold. In livestreaming, there is more emotional connection between the host and the viewers, and they can introduce the products better,” Huang says.

    After piloting with a few clients last year, Xiaoice officially launched its service of generating under-$1,000 digital clones this year; like Silicon Intelligence, Xiaoice only needs human streamers to provide a one-minute video of themselves.

    And like its competitors, Xiaoice clients can spend more to fine-tune the details. For example, Liu Jianhong, a Chinese sports announcer, made an exquisite clone of himself during the 2022 FIFA World Cup to read out the match results and other relevant news on Douyin.

    A cheap replacement for human streamers

    These generated streamers won’t be able to beat the star e-commerce influencers, Huang says, but they are good enough to replace mid-tier ones. Human creators, including those who used their videos to train their AI clones, are already feeling the squeeze from their digital rivals to some extent. It’s harder to get a job as an e-commerce livestream host this year, and the average salary for livestream hosts in China went down 20% compared to 2022, according to the analytics firm iiMedia Research.

    But the potential for companies to complement human work by keeping the livestream going during the hours when fewer people are watching means it’s hard to justify the cost of hiring real streamers.

    That’s already happening. In the post-midnight hours, many of the streaming channels on popular e-commerce platforms like Taobao and JD feature these AI-generated streamers.

    Previous examples have shown that deepfake technologies don’t need to be perfect to deceive viewers. In 2020, a scammer posed as a famous Chinese actor with the aid of crude face-swapping tools and still managed to get thousands of dollars from unsuspecting women who fell in love with his videos.

    “If a company hires 10 livestream hosts, their skill levels are going to vary. Maybe two or three streamers at the top would contribute to 70% to 80% of the total sales,” says Chen Dan, the CEO of Quantum Planet AI, a company that packages technologies like Xiaoice’s and sells them to corporate clients. “A virtual livestream host can replace the rest—six or seven streamers that contribute less and have lower ROI [return on investment] rates. And the costs would come down significantly.”

    Chen says he has witnessed a lot more interest from brands in AI streamers this year, partly because everyone is looking to “降本增效”—lower costs and improve efficiency, the new buzzword among Chinese tech companies as the domestic economy slows down.

    Chen has over 100 clients using Xiaoice’s service now, and these virtual streamers have brokered millions of dollars in sales. One Xiaoice streamer brought in over 10,000 RMB ($1,370) in revenue in just one hour.

    There are still drawbacks, he says. For example, many of his clients are furniture brands, and although the AI is clever enough to speak and use gestures, it can’t really sit on a sofa or lie in a bed, so the streams lack the appeal of real users testing the products.

    The rising popularity of AI-generated livestreams has also caught the attention of video platforms like Douyin, the Chinese version of TikTok, as well—though it’s taking a different approach than other tech giants. It’s seemingly more concerned with transparency and it said in a May document that all videos generated by AI should be labeled clearly as such on the platform, and that virtual influencers need to be operated by real humans. The platform has always banned the use of recorded videos as livestreams. AI-generated livestreaming, with no recorded footage but also little real-time human input, straddles the line on that rule.

    The Chinese government made several laws in the past two years on synthetic media and generative AI that would apply to the use in e-commerce streaming. But the effects of government and platform regulations remain to be seen, because the technology is still too new to have met serious enforcement.

    For Silicon Intelligence, its next step is to add “emotional intelligence” to the AI streamers, Sima says: “If there are abusive comments, it will be sad; if the products are selling well, it will be happy.” The company is also working on making AI streamers interact and learn from each other.

    The company has had a fascinating and sort of terrifying goal since its beginning: it wants to create “100,000,000 silicon-based laborers” by 2025. For now, Sima says, the company has generated 400,000 virtual streamers. There’s still a long way to go.

    #Intelligence_artificielle #Médias_de_synthèse #Chine #Streamers
    #Commerce_electronique

  • GRR contre GPT : l’auteur de Game of Thrones attaque OpenAI
    https://actualitte.com/article/113522/droit-justice/grr-contre-gpt-l-auteur-de-game-of-thrones-attaque-openai

    Les actions en justice se suivent et se ressemblent, aux États-Unis, contre les sociétés qui développent des intelligences artificielles et les outils qui vont avec. OpenAI, filiale de Microsoft qui porte notamment le médiatique ChatGPT, est ainsi visée par plusieurs plaintes d’auteurs qui dénoncent une utilisation non autorisée de leurs œuvres, sans aucune compensation.

    Trois procédures ont déjà été ouvertes en 2023, le 28 juin, le 7 juillet et début septembre, par des auteurs et deux avocats, Joseph Saveri et Matthew Butterick, qui entendent mener la fronde.

    La dernière charge contre OpenAI est collective : des auteurs s’estimant lésés peuvent la rejoindre, pour obtenir des compensations en cas de victoire devant la cour. Elle implique l’Authors Guild, organisation qui représente les écrivains américains, et plusieurs grands noms du secteur, de George R.R. Martin à Jodi Picoult, en passant par Jonathan Franzen ou David Baldacci.
    Une « menace pour les auteurs »

    Dans un communiqué, l’Authors Guild assure que, « sans les œuvres des plaignants, [OpenAI] proposerait des produits très différents », selon les termes de l’avocate Rachel Geman. « Le choix de copier les œuvres des plaignants, sans leur autorisation et sans verser de compensation, constitue une menace pour les auteurs et leurs revenus. »

    Les intelligences artificielles derrière les outils comme ChatGPT sont entrainées à l’aide d’un volume massif de données, et notamment des textes accessibles en ligne. Ces derniers sont « lus » et traités par les algorithmes, afin d’en améliorer la vélocité, la compréhension des requêtes, mais aussi la cohérence des réponses fournies.

    L’utilisation de textes couverts par le copyright par les sociétés de développement des intelligences artificielles a soulevé de nombreuses questions ces derniers mois. D’autant plus que l’accès à ces textes pourrait avoir été réalisé via des plateformes pirates, dont Library Genesis, Z-Library, Sci-Hub ou encore Bibliotik... Un moyen d’accéder à des réservoirs massifs de textes, sans alourdir la facture.

    Par ailleurs, les auteurs reprochent aux créateurs d’IA de s’être passés de leur autorisation, mais aussi d’avoir omis de verser une compensation et d’avoir oublié toute notion de mention des sources.

    En juillet, l’Authors Guild avait publié une lettre ouverte, cosignée par plus de 10.000 auteurs américains, réclamant plusieurs promesses des sociétés visées. Elles devaient, pour satisfaire l’organisation, s’engager « à obtenir le consentement, à créditer et à rémunérer équitablement les auteurs pour l’utilisation d’écrits protégés par le droit d’auteur à des fins d’entrainement de l’intelligence artificielle ». Visiblement, les discussions ne se sont pas déroulées comme prévu...
    Copyright et fair use

    La plainte de l’Authors Guild s’appuie sur plusieurs violations du copyright qu’auraient réalisées les entreprises. Dans l’accès aux textes, pour commencer, puisque l’organisation reprend l’hypothèse selon laquelle « les livres des plaignants ont été téléchargés depuis des répertoires pirates puis intégrés dans les rouages de GPT 3.5 et GPT 4, qui sont à la source de ChatGPT, utilisé par des milliers d’entreprises et d’applications, et grâce auquel OpenAI espère engranger des milliards ».

    Une autre violation surviendrait par l’exploitation sans autorisation des œuvres des auteurs, qui ne peuvent pas, par ailleurs, s’opposer à celle-ci.

    Enfin, l’Authors Guild assure que l’entrainement de ChatGPT par des créations littéraires permet à cette intelligence artificielle d’imiter le style de leurs auteurs, menaçant l’intégrité de leur œuvre et leur identité.

    GPT est déjà utilisé pour générer des livres qui singent les travaux d’auteurs humains, comme la tentative récente de générer les volumes 6 et 7 de la saga Le Trône de fer de George R.R. Martin le montre, ainsi que d’autres ouvrages de l’IA postés sur Amazon pour essayer d’usurper l’identité et la réputation d’auteurs humains.

    – L’Authors Guild

    « Il est impératif de mettre un coup d’arrêt à ce vol à grande échelle », martèle Mary Rasenberger, PDG de l’Authors Guild, dans un communiqué.

    À LIRE - Livres écrits avec l’IA : Amazon joue la transparence

    Se profile au tribunal un énième affrontement entre le copyright et le fair use, une sorte d’exception au premier, qui s’applique dans certains cas uniquement, notamment la recherche ou l’intérêt pédagogique. OpenAI et Meta (visé pour son IA LLaMA) ont tous deux mis en avant des usages permis par le fair use, pour se défendre des accusations de violations du copyright à leur égard.

    Aux États-Unis, la question de l’utilisation de contenus sous droits à des fins d’entrainement des IA est loin d’être tranchée. Fin juillet, Joe Biden assurait que plusieurs sociétés technologiques avaient accepté, sur le principe, d’appliquer des « garde-fous » proposés par la Maison-Blanche, comme le fait d’intégrer des filigranes aux productions, pour faciliter la distinction entre une œuvre générée et une œuvre originale.

    Mais aucune nouvelle d’un système de compensation, si ce n’est une vague promesse de Sam Altman, PDG d’OpenAI, quant à un système permettant de rémunérer les créateurs dès lors qu’une intelligence artificielle « s’appuie sur [leur] style » pour générer un texte.

    À LIRE - Des députés entendent "encadrer l’IA par le droit d’auteur"

    L’Union européenne, pour sa part, travaille à un IA Act, qui intégrerait quelques mesures relatives au droit d’auteur, notamment une relative transparence quant aux données utilisées pour l’entrainement des IA et une information claire sur l’aspect artificiel d’une œuvre générée. Le Conseil des écrivains européens a appelé de ses vœux un meilleur encadrement des usages des textes, en imposant le recours à une licence aux sociétés — et donc le versement d’une compensation.

    #Intelligence_artificielle #Copyright #fair_use #apprentissage #Auteurs

  • OpenAI releases third version of DALL-E - The Verge
    https://www.theverge.com/2023/9/20/23881241/openai-dalle-third-version-generative-ai

    OpenAI announced the third version of its generative AI visual art platform DALL-E, which now lets users use ChatGPT to create prompts and includes more safety options.

    DALL-E converts text prompts to images. But even DALL-E 2 got things wrong, often ignoring specific wording. The latest version, OpenAI researchers said, understands context much better.

    A new feature of DALL-E 3 is integration with ChatGPT. By using ChatGPT, someone doesn’t have to come up with their own detailed prompt to guide DALL-E 3; they can just ask ChatGPT to come up with a prompt, and the chatbot will write out a paragraph (DALL-E works better with longer sentences) for DALL-E 3 to follow. Other users can still use their own prompts if they have specific ideas for DALL-E.

    This connection with the chatbot, OpenAI said, allows more people to create AI art because they don’t have to be very good at coming up with a prompt.

    OpenAI, possibly to avoid lawsuits, will also allow artists to opt their art out of future versions of text-to-image AI models. Creators can submit an image that they own the rights to and request its removal in a form on its website. A future version of DALL-E can then block results that look similar to the artist’s image and style. Artists sued DALL-E competitors Stability AI and Midjourney, along with art website DeviantArt, for allegedly using their copyrighted work to train their text-to-image models.

    #Dall-E #OpenAI #Intelligence_artificielle

  • Google Connects A.I. Chatbot Bard to YouTube, Gmail and More Facts - The New York Times
    https://www.nytimes.com/2023/09/19/technology/google-bard-ai-chatbot-youtube-gmail.html?nl=todaysheadlines&emc=edit_th_20

    With the latest updates, Google will try to replicate some of the capabilities of its search engine, by incorporating Flights, Hotels and Maps, so users can research travel and transportation. And Bard may come closer to being more of a personalized assistant for users, allowing them to ask which emails it missed and what the most important points of a document are.

    A.I. chatbots are widely known to offer not only correct information but also falsehoods, in a phenomenon known as “hallucinations.” Users are left with no way to tell what is true and what is not.

    Google believes it has taken a step toward addressing those issues by revamping the “Google It” button featured on Bard’s website, which had allowed users to run Google searches on the queries they had asked the chatbot.

    Now, the button will double-check Bard’s answers. When Google has high confidence in a claim and can support it with evidence, it will highlight the text in green and link to another webpage that backs up the information. When Google cannot find facts to bolster a claim, the text is instead highlighted in orange.

    #Bard #Intelligence_artificielle

  • An interactive platform that explains machine learning models to its users
    https://techxplore.com/news/2023-09-interactive-platform-machine-users.html

    Moreover, in recent years, machine learning algorithms have become increasingly sophisticated and complex, making the processes behind their predictions harder to explain even for experienced computer scientists. To increase people’s trust in these highly advanced and promising computational tools, some research teams have been trying to create what is known as explainable artificial intelligence (XAI).

    These are essentially machine learning models that can explain, at least in part, how they reached a given conclusion or what “features” of data they focused on when making a particular prediction. While XAI techniques could be more robust and reliable, most of them have not achieved particularly promising results, as their explanations often leave room for interpretation.

    Researchers at University of California-Irvine and Harvard University recently developed TalkToModel, an interactive dialog system designed to explain machine learning models and their predictions both to engineers and non-expert users. Their platform, introduced in Nature Machine Intelligence, allows users to receive simple and relevant answers to their questions about AI models and their functioning.

    The recent study by Slack and his colleagues builds on their earlier works focusing on XAI and human-AI interaction. Its key objective was to introduce a new platform that would explain AI to users in a simple and accessible way, similarly to how OpenAI’s conversational platform ChatGPT answers questions.

    Their system has three key components: an adaptive dialog engine, an execution unit and a conversational interfaced. The adaptive dialog engine was trained to interpret input texts in natural language and generate sensible responses to these texts.

    The execution component essentially composes the “AI explanations” that are then translated into accessible words and sent to users. Finally, the conversational interface is essentially the software through which users can type their prompts and view answers.

    #Intelligence_artificielle #XAI #Explainable_Artificial_Intelligence

  • Unhinged Conspiracies, AI Doppelgangers, and the Fractured Reality of Naomi Klein | WIRED
    https://www.wired.com/story/covid-conspiracies-ai-doppelgangers-naomi-klein

    Très intéressant interview de Naomi Klein

    The thing I find disingenuous is when you hear, oh, we’re going to have so much leisure time, the AI will do the grunt work. What world are you living in? That’s not what happens. Fewer people will get hired. And I don’t think this is a fight between humans and machines; that’s bad framing. It’s a fight between conglomerates that have been poisoning our information ecology and mining our data. We thought it was just about tracking us to sell us things, to better train their algorithms to recommend music. It turns out we’re creating a whole doppelganger world.

    We’ve provided just enough raw material.

    When Shoshana Zuboff wrote The Age of Surveillance Capitalism, it was more about convincing people who’d never had a sense that they had a right to privacy—because they’d grown up with the all-seeing eye of social media—that they did have a right to privacy. Now it’s not just that, even though privacy is important. It’s about whether anything we create is going to be weaponized against us and used to replace us—a phrase that unfortunately has different connotations right now.

    Take it back! The right stole “shock doctrine,” you can nab “replace us” for the AI age.

    These companies knew that our data was valuable, but I don’t even think they knew exactly what they were going to do with it beyond sell it to advertisers or other third parties. We’re through the first phase now, though. Our data is being used to train the machines.

    Fodder for a Doppelganger sequel.

    And about what it means for our ability to think new thoughts. The idea that everything is a remix, a mimicry—it relates to what you were talking about, the various Marvel and Mattel universes. The extent to which our culture is already formulaic and mechanistic is the extent to which it’s replaceable by AI. The more predictable we are, the easier it is to mimic. I find something unbearably sad about the idea that culture is becoming a hall of mirrors, where all we see is our own reflections back.

    #Naomi_Klein #Sosie #Doppelganger #Intelligence_artificielle

  • The plan for AI to eat the world - POLITICO
    https://www.politico.com/newsletters/digital-future-daily/2023/09/06/the-plan-for-ai-to-eat-the-world-00114310
    https://static.politico.com/59/d4/f444c07c4c97b0a60ad9c1b62cf7/https-delivery-gettyimages.com/downloads/1258197310

    Les aerticles de Politico sur l’Intelligence artificielle sont toujours très intéressants.

    If “artificial general intelligence” ever arrives — an AI that surpasses human intelligence and capability — what will it actually do to society, and how can we prepare ourselves for it?

    That’s the big, long-term question looming over the effort to regulate this new technological force.

    Tech executives have tried to reassure Washington that their new AI products are tools for harmonious progress and not scary techno-revolution. But if you read between the lines of a new, exhaustive profile of OpenAI — published yesterday in Wired — the implications of the company’s takeover of the global tech conversation become stark, and go a long way toward answering those big existential questions.

    Veteran tech journalist Steven Levy spent months with the company’s leaders, employees and former engineers, and came away convinced that Sam Altman and his team don’t only believe that artificial general intelligence, or AGI, is inevitable, but that it’s likely to transform the world entirely.

    That makes their mission a political one, even if it doesn’t track easily along our current partisan boundaries, and they’re taking halting, but deliberate, steps toward achieving it behind closed doors in San Francisco. They expect AGI to change society so much that the company’s bylaws contain written provisions for an upended, hypothetical version of the future where our current contracts and currencies have no value.

    “Somewhere in the restructuring documents is a clause to the effect that, if the company does manage to create AGI, all financial arrangements will be reconsidered,” Levy notes. “After all, it will be a new world from that point on.”

    Sandhini Agarwal, an OpenAI policy researcher, put a finer point on how he sees the company’s mission at this point in time: “Look back at the industrial revolution — everyone agrees it was great for the world… but the first 50 years were really painful… We’re trying to think how we can make the period before adaptation of AGI as painless as possible.”

    There’s an immediately obvious laundry list of questions that OpenAI’s race to AGI raises, most of them still unanswered: Who will be spared the pain of this “period before adaptation of AGI,” for example? Or how might it transform civic and economic life? And just who decided that Altman and his team get to be the ones to set its parameters, anyway?

    The biggest players in the AI world see the achievement of OpenAI’s mission as a sort of biblical Jubilee, erasing all debts and winding back the clock to a fresh start for our social and political structures.

    So if that’s really the case, how is it possible that the government isn’t kicking down the doors of OpenAI’s San Francisco headquarters like the faceless space-suited agents in “E.T.”?

    In a society based on principles of free enterprise, of course, Altman and his employees are as legally entitled to do what they please in this scenario as they would be if they were building a dating app or Uber competitor. They’ve also made a serious effort to demonstrate their agreement with the White House’s own stated principles for AI development. Levy reported on how democratic caution was a major concern in releasing progressively more powerful GPT models, with chief technology officer Mira Murati telling him they “did a lot of work with misinformation experts and did some red-teaming” and that “there was a lot of discussion internally on how much to release” around the 2019 release of GPT-2.

    Those nods toward social responsibility are a key part of OpenAI’s business model and media stance, but not everyone is satisfied with them. That includes some of the company’s top executives, who split to found Anthropic in 2019. That company’s CEO, Dario Amodei, told the New York Times this summer that his company’s entire goal isn’t to make money or usher in AGI necessarily, but to set safety standards with which other top competitors will feel compelled to comply.

    The big questions about AI changing the world all might seem theoretical. But those within the AI community, and increasing numbers of watchdogs and politicians, are already taking them deadly seriously (despite a steadfast chorus of computer scientists still entirely skeptical about the possibility of AGI at all).

    Just take a recent jeremiad from Foundation for American Innovation senior economist Samuel Hammond, who in a series of blog posts has tackled the political implications of AGI boosters’ claims if taken at face value, and the implications of a potential response from government:

    “The moment governments realize that AI is a threat to their sovereignty, they will be tempted to clamp down in a totalitarian fashion,” Hammond writes. “It’s up to liberal democracies to demonstrate institutional co-evolution as a third-way between degenerate anarchy and an AI Leviathan.”

    For now, that’s a far-fetched future scenario. But as Levy’s profile of OpenAI reveals, it’s one that the people with the most money, computing power and public sway in the AI world hold as gospel truth. Should the AGI revolution put politicians across the globe on their back foot, or out of power entirely, they won’t be able to say they didn’t have a warning.

    #Intelligence_artificielle #OpenAI #Nouveaux_mythes #Utopie

  • Nous gaspillons des milliards dans une révolution robotique qui n’arrivera pas Matthew Lynn - The Daily Telegraph

    Les espoirs placés dans la révolution robotique de la décennie 2020 se sont heurtés à des défis majeurs. Des échecs retentissants dans le domaine des robots cuisiniers et des taxis autonomes ont mis en évidence les limites techniques, les coûts élevés et les exigences de perfectionnement auxquels font face les innovations robotiques. Malgré les investissements massifs, la transition vers une automatisation généralisée semble encore lointaine et complexe.

    Les années 2020 étaient censées être la décennie où la révolution robotique décollait réellement. Nous serions tous en train de rouler dans des taxis contrôlés par ordinateur, de prendre des boissons auprès de robots barmans et de rentrer chez nous dans des maisons nettoyées par des serviteurs androïdes efficaces. Mais cela n’est pas encore arrivé et c’est pas pour demain.


    Au lieu de cela, à San Francisco, les voitures sans conducteur se détraquent ; tandis qu’en Grande-Bretagne, une start-up financée par des millions de dollars pour fabriquer des robots chefs a connu un échec spectaculaire. En réalité, la révolution des robots s’effondre – et des milliards sont sur le point d’être gaspillés dans le processus.

    Ce fut une semaine qui donne à réfléchir pour les évangélistes de l’industrie robotique. Vous pensez peut-être que San Francisco avait suffisamment de problèmes avec les vagabonds et la criminalité de rue, mais elle a désormais ajouté les taxis sans conducteur excentriques à sa liste de défis.

    Quelques jours après que l’unité Cruise de General Motors ait obtenu l’autorisation d’exploiter une flotte de taxis entièrement contrôlés par ordinateur, le chaos a éclaté dans les rues, obligeant à réduire de moitié le nombre de ces véhicules. L’un d’eux a heurté un camion de pompiers, tandis qu’un camion entièrement vide a été impliqué dans une collision avec un autre véhicule.


    Ce démarrage tumultueux n’est certainement pas ce que l’entreprise espérait, et il ne semble pas non plus susceptible d’inciter d’autres villes à permettre à Cruise, ou à des concurrents comme Waymo de Google, de déployer leurs véhicules sur leurs routes en toute liberté.

    De ce côté-ci de l’Atlantique, la startup spécialisée dans les robots cuisiniers, Karakuri, qui avait reçu d’importants financements, notamment de la part d’Ocado et du gouvernement, connaît actuellement des difficultés majeures. Les 4 millions de livres sterling investis par Ocado pour acquérir une participation de 20 % ont pratiquement été perdus, tout comme la majeure partie des autres investissements. En fin de compte, les actifs restants de l’entreprise ont été vendus pour seulement 350 000 livres sterling.

    Ses machines sophistiquées conçues pour préparer des sushis parmi une gamme de plats, remplaçant les chefs traditionnels, ont eu du mal à trouver une place rentable sur le marché. De même, Creator, une entreprise américaine qui construisait un restaurant de hamburgers entièrement géré par des robots, a fermé ses portes en mars.

    Pendant ce temps, il y a peu d’indications que les robots sont en train de conquérir le monde. Très peu d’entre nous possèdent encore des robots aspirateurs, et bien qu’il existe de nombreuses tondeuses à gazon automatisées sur le marché, la plupart d’entre nous préfèrent toujours la méthode traditionnelle de tonte manuelle dans le jardin.

    Mis à part quelques essais, la plupart de nos colis Amazon sont toujours livrés par des êtres humains, et nous continuons à acheter des produits auprès de vendeurs réels plutôt que d’opter pour des solutions électroniques. L’automatisation a eu un certain impact sur notre vie quotidienne. Les caisses en libre-service sont désormais courantes pour effectuer des achats rapides, et les chatbots sont là pour répondre à des questions simples lorsque nous souscrivons une nouvelle assurance.

    Cependant, il est frappant de constater à quel point la robotique a eu jusqu’à présent peu d’impact et combien de startups autrefois prometteuses ont été laissées de côté.

    Et ce, malgré d’énormes investissements. En 2021, l’industrie du capital-risque a injecté 17 milliards de dollars (13 milliards de livres sterling) dans le secteur, et presque autant l’année dernière, et ce n’est que l’argent destiné aux start-ups. Les grandes entreprises ont investi encore plus. Et il devrait y avoir une forte demande.

    Nous sommes tous conscients des pénuries de main-d’œuvre souvent paralysantes au Royaume-Uni, mais elles sont tout aussi graves en Allemagne, aux États-Unis et dans de nombreuses autres économies développées.

    Dans des secteurs comme l’hôtellerie et la logistique, les entreprises se plaignent constamment du manque de personnel. On pourrait penser qu’elles seraient enthousiastes à l’idée de faire appel à des robots pour effectuer le travail à leur place, mais malgré tous les investissements consentis, il n’y a pas grand-chose à montrer pour le moment. En réalité, trois défis majeurs se dressent devant elles.

    Tout d’abord, la technologie n’est généralement pas suffisamment performante. Il est relativement facile de créer une présentation convaincante pour attirer des investissements de sociétés de capital-risque et de concevoir un prototype capable d’accomplir quelques tâches simples en laboratoire. Cependant, transformer ce prototype en un produit fini pouvant être fabriqué en série est une tout autre histoire. Jusqu’à présent, il y a peu de preuves montrant que de nombreuses startups de robotique ont réussi à passer de la phase de développement à une intégration réussie dans le monde réel.

    Deuxièmement, le coût est souvent trop élevé. Pour ne prendre qu’un exemple, il existe déjà un certain nombre de robots barmen parmi lesquels choisir, et peut-être que certains d’entre eux préparent même un Martini assez décent. Mais une recherche rapide sur le Web révèle qu’ils coûtent généralement entre 116 000 et 151 000 euros pièce. C’est beaucoup.

    Il en va souvent de même pour les robots chefs, les serveuses ou le personnel d’enregistrement. Le simple fait est que les robots sont généralement conçus pour remplacer les compétences de bas niveau, qui, de toute évidence, se situent à l’extrémité la moins chère du marché du travail. Il est difficile de justifier de payer 116 000 euros pour un robot barman alors que vous pouvez en embaucher un vrai pour 29 000 euros par an.

    Bien sûr, avec des volumes plus importants et des séries de production plus longues, le coût de nombreux robots pourrait commencer à baisser, mais les prix devront baisser considérablement avant qu’ils ne deviennent réellement une proposition commercialement viable. Les entreprises ne remplaceront pas les gens par des machines tant qu’elles ne seront pas payées pour le faire.

    Enfin, les tâches pour lesquelles les robots pourraient être utilisés nécessitent des niveaux de perfection qu’ils ne peuvent pas encore atteindre. Personne ne veut d’un taxi sans chauffeur.

    robots #robot #travail #robotique #algorithme #robotisatio #automatisation #intelligence_artificielle #technologie #économie #capitalisme #santé #en_vedette #ia #numérique #société #startups

    Source : https://www.telegraph.co.uk/business/2023/08/27/robotics-revolution-falling-flat-metal-face
    Traduction : https://lemediaen442.fr/nous-gaspillons-des-milliards-dans-une-revolution-robotique-qui-narrive

  • Opinion | A Creator (Me) Made a Masterpiece With A.I. - The New York Times
    https://www.nytimes.com/2023/08/25/opinion/ai-art-intellectual-property.html

    I’ve got 99 problems with A.I., but intellectual property ain’t one.

    Media and entertainment industries have lately been consumed with questions about how content generated by artificial intelligence systems should be considered under intellectual property law. Last week a federal judge ruled against an attempt to copyright art produced by a machine. In July another federal judge suggested in a hearing that he would most likely dismiss a copyright infringement lawsuit brought by artists against several artificial intelligence art generators. How A.I. might alter the economics of the movie and TV business has become one of the primary issues in the strike by writers and actors in Hollywood. And major news companies — including The Times — are weighing steps to guard the intellectual property that flows from their journalism.

    In the face of all the possible actions against A.I. and its makers, I’d suggest caution. I’ve been thinking a lot about whether musicians, painters, photographers, writers, filmmakers and other producers of creative work — including, on good days, myself — should fear that machines might damage their livelihoods. After extensive research and consultation with experts, I’ve arrived at a carefully considered, nuanced position: meh.

    Controversies over A.I. are going to put a lot of copyright lawyers’ kids through college. But the more I use ChatGPT, Midjourney and other A.I. tools, the more I suspect that many of the intellectual property questions they prompt will prove less significant than we sometimes assume. That’s because computers by themselves cannot yet and might never be able to produce truly groundbreaking creative work.

    History offers one clue: Technologies that made art easier to produce have rarely ended up stifling human creativity. Electronic synthesizers didn’t eliminate the need for people who play musical instruments. Auto-Tune didn’t make singing on pitch obsolete. Photography didn’t kill painting, and its digitization didn’t obviate the need for professional photographers.

    Then there’s the content I’ve seen A.I. produce: Unless it’s been heavily worked over by human beings, a lot of the music, images, jokes and stories that A.I. has given us so far have felt more like great mimicry than great art. Sure, it’s impressive that ChatGPT can write a pop song in the style of Taylor Swift. But the ditties still smack of soulless imitation. They’re not going to go platinum or sell out stadiums. A.I. might undermine some of the more high-volume corners of photography — stock photos, for instance — but will you use it to capture your wedding or to document a war? Nope.

    Lemley is one of the lawyers representing the A.I. firm Stability AI in a copyright infringement lawsuit brought by artists. At the heart of that suit is the issue of how A.I. systems are trained. Most gain their smarts by analyzing enormous amounts of digital content, including lots of copyrighted work. Which prompts the question: Should the artists be compensated for their contributions, and if so, how?

    To me, the answer is no. When a machine is trained to understand language and culture by poring over a lot of stuff online, it is acting, philosophically at least, just like a human being who draws inspiration from existing work. I don’t mind if human readers are informed or inspired by reading my work — that’s why I do it! — so why should I fret that computers will be?

    Of course, one reason I might mind is if the machine uses what it learns from reading my work to produce work that could substitute for my own. But at the risk of hubris, I don’t think that’s likely in the foreseeable future. For me, a human creator’s very humanity feels like the ultimate trump card over the machines: Who cares about a computer’s opinion on anything?

    #Intelligence_artificielle #Droit_auteur

  • Collision, irruption dans des lieux publics, chutes... une série d’incidents freine l’expansion des robots-taxis à San Francisco Belga - LaLibre.be

    Mardi dernier, un des robots-taxis Cruise a ignoré un panneau signalant un chantier.

    Après une semaine d’incidents bizarres, comiques ou franchement inquiétants avec des taxis sans chauffeurs à San Francisco, l’autorité californienne met un frein aux projets d’expansion de la compagnie Cruise.

    Parmi ces incidents au cours des sept derniers jours, il est question d’un groupe de robots-taxis qui ont roulé ensemble vers une plage de la ville durant la nuit du 11 août avant de s’arrêter et de bloquer un carrefour quinze minutes durant.


    Une série d’incidents freine l’expansion des robots-taxis à San Francisco ©2023 Getty Images

    Mardi dernier, un de ces robots-taxis Cruise a aussi ignoré un panneau signalant un chantier et a roulé directement dans du ciment frais, pour s’y engluer.

    Plus inquiétant, un de ces véhicules autonomes s’est engagé dans un carrefour alors que le feu était vert mais qu’un camion de pompiers s’élançait toutes sirènes hurlantes. Le camion de pompier a embouti le robot-taxi et son unique passager a dû être hospitalisé.

    .@Cruise car trying to go down a street while emergency services respond to a fire just now

if you’re in #sf right now, how are you feeling about the new regulation expanding AI taxi services in the bay area ? Vidéo https://twitter.com/zachurey/status/1690173279221448704
    -- Zach Farley (@zachurey) August 12, 2023

    Après cette collision, l’autorité a annoncé ouvrir une enquête et affirmé que l’entreprise Cruise, appartenant à General Motor, allait diminuer de moitié sa flotte à 50 robot-taxis en journée et 150 durant la nuit.

    Dans une déclaration, Cruise a affirmé vouloir collaborer avec cette autorité, mais aussi confirmé souhaiter déployer des milliers de robot-taxis dans la ville californienne.

    Une autre entreprise, Waymo, détenue par Alphabet dont dépend aussi Google, nourrit les mêmes ambitions.

    Cette enquête survient après un vote controversé de la California Public Utilities Commission (CPUC), chargée de superviser les véhicules autonomes, en faveur des requêtes de ces deux entreprises pour proposer des courses payantes dans toute la ville de San Francisco, de jour comme de nuit.

    Jusqu’à présent, elles étaient limitées : Cruise opère un service de robots-taxis payants la nuit et Waymo expérimente avec des volontaires, gratuitement (ou moyennant paiement, mais avec un humain sur le siège du conducteur).

    #daube #echec #fantasme #MDR #Technologisme #véhicules_autonomes #smartphone #réseaux #embouteillages #robots-taxis #Taxi #autonomes_fahren #robotisation #innovation #intelligence_artificielle #robot #algorithme 

    Source : https://www.lalibre.be/international/amerique/2023/08/20/collision-irruption-dans-des-lieux-publics-chutes-une-serie-dincidents-frein

  • AI comes for YouTube’s thumbnail industry - Rest of World
    https://restofworld.org/2023/youtube-thumbnail-ai

    Designers and artists who spoke with Rest of World said they’re treating the rise of text-to-image generation AI tools such as Midjourney and AlphaCTR with a mix of anxiety and curiosity. Rest of World spoke to four YouTube thumbnail artists in India, Qatar, and France who said they have either already incorporated, or will soon incorporate, AI tools such as Midjourney or Photoshop’s Generative Fill into their workflows.

    “I’ve heard from so many junior artists who are absolutely petrified because they’ve gone to university; they’ve put years of work and resources and experience into this skill that, quite frankly, may not ever get used,” U.K.-based senior digital designer Edd Coates told Rest of World. “From a technical standpoint, what we’re talking about is a piece of software that you have fed other people’s work into, and then that software is generating work that will replace the people who you’ve taken the work from.” Coates said it’s his responsibility as a senior digital designer in the gaming industry to push back against the use of such tools.

    Until 2020, full-time thumbnail artists were far and few. The pandemic sparked a boom in the creator economy, which led to the emergence of numerous graphic design professionals catering to YouTubers full time, said Muazz Shaail, a Qatar-based thumbnail designer. The rise of the YouTube economy, which also included strategists, video editors, and scriptwriters, even led to the creation of YT Jobs, a job board to find talented YouTube professionals in 2021.

    Of the over 2,000 job postings on YT Jobs this past May, thumbnail designer was the second most in-demand role, accounting for 19.3% of the listings. Creators who once made their own thumbnails, or paid graphic designers a meager $20 for thumbnails five years ago, are now paying hundreds of dollars for a single image, Paddy Galloway, creator of YT Jobs noted in his analysis.

    #YouTube #Thumnail #Intelligence_artificielle #Métiers_numériques

  • North Africa a ’testing ground’ for EU surveillance technology

    The EU is outsourcing controversial surveillance technologies to countries in North Africa and the Sahel region with no human rights impact assessments, reports say.

    Controversial surveillance technologies are being outsourced by the European Union to countries in North Africa and the Sahel region with no transparency or regulation, according to two new reports.

    Funding, equipment and training is funnelled to third countries via aid packages, where autocratic governments use the equipment and techniques to surveil the local population.

    Beyond the borders of Europe, the movements of asylum seekers are being policed and eventually used to assess their asylum applications.

    Antonella Napolitano, author of a report for human rights group EuroMed Rights, told Middle East Eye that the implementation of these projects is opaque and lacks proper consideration for the rights of civilians and the protection of their data.

    “There aren’t enough safeguards in those countries. There aren’t data protection laws,” Napolitano said. “I think the paradox here is that border externalisation means furthering instability [in these countries].”

    The complex web of funding projects and the diversity of actors who implement them make the trails of money difficult to track.

    “This enables states to carry out operations with much less transparency, accountability or regulation than would be required of the EU or any EU government,” Napolitano told MEE.

    The deployment of experimental technologies on the border is also largely unregulated.

    While the EU has identified AI regulation as a priority, its Artificial Intelligence Act does not contain any stringent provision for the use of the technologies for border control.

    “It’s creating a two-tiered system,” Napolitano told MEE. “People on the move outside the EU don’t have the same rights by design.”
    Asylum claims

    The surveillance of migrants on the move outside of Europe is also brought to bear back inside Europe.

    A Privacy International report published in May found that five companies were operating GPS tagging of asylum seekers for Britain’s Home Office.

    “It’s been massively expanded in the past couple of years,” Lucie Audibert, legal officer at Privacy International, told MEE.

    Other, less tangible forms of surveillance are also deployed to monitor asylum seekers. “We know, for example, that the Home Office uses social media a lot… to assess the veracity of people’s claims in their immigration applications,” Audibert told MEE.

    According to the reports, surveillance equipment and training is supplied by the EU to third countries under the guise of development aid packages.

    These include the EU Emergency Trust Fund for Africa (EUTF for Africa) and now the Neighbourhood, Development and International Cooperation Instrument.

    The reports cite multiple instances of how these funding instruments served to bolster law enforcement agencies in Algeria, Egypt, Libya and Tunisia, furnishing them with equipment and training that they then used against the local population.

    The EUTF for Africa allocated 15 million euros ($16.5m USD) in funding to these countries to train up a group of “cyber specialists” in online surveillance and data extraction from smart devices.

    A Privacy International investigation into the role of CEPOL, the EU law enforcement training agency, revealed that it had supplied internet surveillance training to members of Algeria’s police force.

    The investigation highlights a potential connection between these tactics, which contravened the EU’s own policies on disinformation, and the wave of online disinformation and censorship driven by pro-regime fake accounts in the aftermath of the 2019 Hirak protests in Algeria.
    A dangerous trend

    For journalist Matthias Monroy, the major development in border surveillance came after the so-called migration crisis of 2015, which fuelled the development of the border surveillance industrial complex.

    Prior to that, Europe’s border agency, Frontex, was wholly dependent on member states to source equipment. But after 2015, the agency could acquire its own.

    “The first thing they did: they published tenders for aircraft, first manned and then unmanned. And both tenders are in the hands of private operators,” Monroy told MEE.

    Frontex’s drones are now manned by the British company Airbus. “The Airbus crew detected the Crotone boat,” Monroy told MEE, referring to a shipwreck off the coast of Crotone, Italy, in February.

    “But everybody said Frontex spotted the boat. No, it was Airbus. It’s very difficult to trace the responsibility, so if this surveillance is given to private operators, who is responsible?”

    Almost 100 people died in the wreck.

    Since 2015, with the expansion of the border surveillance industrial complex, its digitisation and control has been concentrated increasingly in the hands of private actors.

    “I would see this as a trend and I would say it is very dangerous,” Monroy said.

    https://www.middleeasteye.net/news/eu-north-africa-surveillance-technology-testing-ground

    #surveillance #technologie #test #Afrique_du_Nord #Sahel #asile #migrations #réfugiés #frontières #intelligence_artificielle #IA #EU_Emergency_Trust_Fund_for_Africa (#EUTF_for_Africa) #développement #Emergency_Trust_Fund #Algérie #Egypte #Tunisie #Libye #complexe_militaro-industriel #contrôles_frontaliers #Frontex #Airbus #drones #privatisation

    ping @_kg_

    • The (human) cost of Artificial Intelligence and Surveillance technology in migration

      The ethical cost of Artificial Intelligence tools has triggered heated debates in the last few months. From chatbots to image generation software, advocates and detractors have been debating the technological pros and societal cons of the new technology.

      In two new reports, Europe’s Techno-Borders and Artificial Intelligence: The New Frontier of the EU’s Border Externalisation Strategy, EuroMed Rights, Statewatch and independent researcher Antonella Napolitano have investigated the human and financial costs of AI in migration. The reports show how the deployment of AI to manage migration flows actively contribute to the instability of the Middle East and North African region as well as discriminatory border procedures, threatening the right to asylum, the right to leave one’s country, the principle of non-refoulement as well as the rights to privacy and liberty.

      European borders and neighbouring countries have been the stage of decades-long efforts to militarise and securitise the control of migration. Huge sums of public money have been invested to deploy security and defence tools and equipment to curb arrivals towards the EU territory, both via externalisation policies in countries in the Middle East and North Africa and at the EU’s borders themselves. In this strategy of “muscling-up” the borders, technology has played a crucial role.

      EuroMed Rights’ new reports highlight how over the decades, surveillance technology has become a central asset in the EU’s migration policies with serious impacts on fundamental rights and privacy. In Artificial Intelligence: The New Frontier of the EU’s Border Externalisation Strategy we analyse how surveillance technology has been a crucial part of the European policy of externalisation of migration control. When surveillance technologies are deployed with the purpose of anti-smuggling, trafficking or counterterrorism in countries where democracies are fragile or there are authoritarian governments, they can easily end up being used for the repression of civic space and freedom of expression. What is being sold as tools to curb migrant flows, could actually be used to reinforce the security apparatus of repressive governments and fuel instability in the region.

      At the same time, Europe’s Techno-Borders highlights how this security obsession has been applied to the EU’s borders for decades, equipping them with ever-more advanced technologies. This architecture for border surveillance has been continuously expanding in an attempt to detect, deter and repel refugees and migrants. For those who manage to enter, they are biometrically registered and screened against large-scale databases, raising serious concerns on privacy violations, data protection breaches and questions of proportionality.

      Decades of “muscling-up” the EU’s borders keep showing the same thing: military, security, defence tools or technology do not stop migration, they only make it more dangerous and lethal. Nonetheless, the security and surveillance apparatus is only expected to increase: more and more money is being invested to research and develop new tech tools to curb migration, including through Artificial Intelligence.

      In a context that is resistant to public scrutiny and accountability, and where the private military and security sector has a vested interest in expanding the surveillance architecture, it is crucial to keep monitoring and denouncing the use of these technologies, in the struggle for a humane migration policy that puts the right of people on the move at the centre!

      Read our reports here:

      - Artificial Intelligence: the new frontier of the EU’s border externalisation strategy: https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf
      - Europe’s Techno-Borders: https://euromedrights.org/wp-content/uploads/2023/07/EuroMed-Rights_Statewatch_Europe-techno-borders_EN-1.pdf

      https://euromedrights.org/publication/the-human-cost-of-artificial-intelligence-and-surveillance-technology
      #rapport #EuroMed_rights

    • Je retiens :
      – L’IA qui joue au GO consomme 400KW quand son adversaire humain consomme 20W. Cette IA ne peut que jouer au GO.
      – L’IA qui reconnait les chats a eu besoin de 200K images pour fonctionner, quand un enfant de 2 ans a besoin de 2 images. L’IA ne reconnait pas le chat dans la pénombre, l’enfant si. Cette IA ne peut que reconnaître des chats, et encore avec un taux de réussite imparfait.
      – L’IA Google de conduite automatique ne sait pas faire la différence entre un panneau stop brandi par un humain pour faire une blague, et un vrai panneau stop.
      – Une IA est un outil, comme le marteau pour enfoncer le clou, construit par l’humain pour résoudre un type de problème particulier. L’IA qui résout tous les problèmes n’existe pas, car l’IA telle qu’elle est construite actuellement se fonde sur des données existantes. L’IA ne crée rien, l’IA régurgite.

    • Ce qui manque ici, comme souvent quand il est question d’IA, c’est de savoir comment la problématique s’inscrit sur le long terme dans les processus de production industrielle ; en particulier pour optimiser la productivité dans l’industrie informatique .

      La question à été un peu traitée à la fin de la vidéo, mais de façon absolument non critique et en ne l’abordant pas du tout sous l’angle spécifique des métiers de la filière informatique, ce qui est quand même un comble devant un public d’étudiantEs du secteur (si j’ai bien compris).

      Je n’ai aucun domaine de compétence pour confirmer l’hypothèse mais je me demande quand même si, avec ces techniques, permettant d’automatiser certaines tâches spécialisées, les développeurs (et de façon générale, les « informaticiens ») n’ont pas du soucis à se faire.

      Un des passages les plus intéressants du Capital (Marx), de mon point de vue, explique comment on est passé de l’artisanat à la manufacture puis à la grande industrie, les ouvriers spécialisés, fabricant, dans un premier temps, à la main des pièces mécaniques destinées à être assemblées dans des machines, puis, les « progrès technologiques » aidant, il n’a plus été nécessaire d’avoir recours au savoir-faire manuel de l’artisan (des métiers de l’horlogerie, notamment) pour construire ces pièces mécaniques. Il était devenu plus rentable de construire ce pièces avec des machines car on y passait moins de temps et cela coûtait moins cher ; c’est ce qu’on appelle la productivité. La question du remplacement ne se posait essentiellement alors qu’en ces termes, de la même façon que la problématique essentielle se pose pour Bezos de savoir s’il est plus rentable de conserver des humains travaillant comme des robots dans ses entrepôts, plutôt que de tout automatiser.

      On gagnerait, il me semble, à ne pas oublier ces déterminants économiques dans l’observation du « progrès technologiques », même si la fiabilité, le respect des sources, la régulation, etc. de ChatGPT,évoquées ici ou là, sont des questions importantes.

      On a essayé de construire tout un tas de machines volantes plus délirantes les unes que les autres avant d’arriver à un produire un modèle d’avion opérationnel. On sait déjà, avec le peu de recul de l’ère internet, que tout le monde s’était emballé, il y a quelques années sur des soit-disant faits historiques qui n’étaient que des fétus de paille (les CD, le web 2.0, etc.). De ce point de vue la vidéo est très utile, en analysant de façon plus rationnelle ce qu’est l’IA (improprement nommée). Pour autant, si on comprend mieux ce qu’est l’IA, on en sait pas beaucoup plus sur les conditions réelles, d’un point de vue industriel, de sa mise en place est sur les raisons pour lesquelles ceux qui ont le pouvoir de décision industriel l’emploient aujourd’hui.

      Comme l’évoquait justement Bookchin, nous ne savons pas exactement à quelle étape de l’évolution capitaliste nous en sommes.Nous n’avons à notre disposition que la focale du réel (avec le recul de l’histoire). Mieux vaut éviter d’essayer de lire dans le marc de café avec des discours sensationnels et de nous en tenir qu’aux réalités tangibles : notamment l’incontournable présence des pouvoirs économiques sur le court des choses.

      Néanmoins, il existe peut-être dans le réel d’aujourd’hui des signes qui peuvent nous indiquer de quoi sera fait l’avenir immédiat.

      Ma question : ne risque pas t-on d’avoir un processus similaire, à celui évoqué ci-dessus par Marx (passage de la fabrication manuelle à une production mécanique), dans les métiers informatiques ? Les professionnels de l’informatique seront-ils pas obligés de passer prochainement par des processus entièrement automatisés pour produire plus ou moins de lignes de code, jusqu’à ce que le savoir-faire du développeur et sa présence ne soient plus nécessaire ?

      Il m’est arrivé de poser la question à des professionnels et j’ai été surpris de constater que la réponse s’imposait presque toujours par la négative (après quand même quelques moments d’hésitation). La question est à nouveau posée ici.

      (Merci de ne pas m’allumer si je raconte des conneries ou si la réponse vous semble évidente)

      Des métiers, des savoir-faire, des gestes techniques, des cultures professionnelles disparaissent, parfois très vite et cela prouve que « ce n’est pas nous qui décidons », contrairement à ce qui est énoncé avec beaucoup de naïveté dans la vidéo.

      Les professionnels qui se retrouvent sur le carreau parce que leur métier n’existe plus sont souvent pris de court car ils ont souvent eu tendance à se rassurer dans une attitude bravache en affirmant, devant les signes avant-coureurs de leur éjection du « marché du travail », que « tout cela ne les touchera pas ». Je peux en témoigner car j’ai travaillé comme photograveur dans les années 80.

    • @cabou je suis bien d’accord et il n’y a pas d’illusion à se faire sur la capacité critique et encore moins marxienne, d’un co créateur de Siri. La vidéo a l’avantage pour moi de dissiper les fantasmes de ce que la soi-disant « IA » est ou n’est pas. À partir de là, une fois les fantasmes voire délires mis de côté, on peut discuter de ce dont tu parles toi, et qui est bien évidemment largement plus central.

      À ce propos : https://seenthis.net/messages/1011672

      Comme pour les autres secteurs de l’économie angoissés par la diffusion des outils d’automatisation (c’est à dire à peu près tous, de la creative class aux artisans, ouvriers, médecins, profs, etc), la déclaration de Fran Drescher mérite d’être rectifiée : ce ne sont pas « les machines » qui vont remplacer « les humains » mais le patronat qui, depuis les premiers théorèmes d’Adam Smith, tente éternellement d’accaparer les nouveaux outils de production pour optimiser l’extraction de la force de travail des employé·es dans le but de maximiser les profits réalisés. De la machine à vapeur à l’IA générative, (presque) rien n’a changé sous le soleil rouge de la lutte des classes, excepté le degré d’efficacité et de violence du processus.

      Évidemment ça marche aussi pour les devs, en tout cas pour de nombreux cas, comme pour à peu près n’importe quel métier spécialisé quoi (plus c’est technique spécialisé, plus c’est facile à reproduire avec assez de data aspirée).

      Plus d’IA, ça veut dire toujours plus de surnuméraires, de gens qui ne créent plus de valeur au sens capitaliste, qui ne servent à rien pour cette organisation du monde.

      #valeur #capitalisme #technologie #surnuméraires

    • merci @rastapopoulos. Content de voir qu’il y a au moins un professionnel qui estime que mon hypothèse n’est pas complètement farfelue :-)

      J’avais zappé ce lien vers Arrêt sur images à cause du paywall et je n’y suis pas revenu après !

      La réinterprétation de la révolte luddite qui a lieu depuis une trentaine d’années me semble effectivement très intéressante. On n’y voit plus forcément une bande d’attardés rétrogrades (à peu de chose près ce qu’en disait Marx et ce qu’en disent encore certains marxistes) mais plutôt l’expression d’une résistance à un pouvoir économique, imposant en guise de « progrès technologique inéluctable », la mise en place directe d’un nouveau type de rapport social de production (eh oui !), une dégradation brutale des revenus et des conditions de vie, une remise en cause du mode vie communautaire (ou social), des savoir-faire de métiers et du rapport qualitatif à ce qui est produit (le « travail bien fait »).

      En clair, il s’avère que le luddisme, n’est ni plus ni moins le premier mouvement de lutte sociale contre l’émergence de la révolution industrielle, elle-même, décrite comme l’étape décisive de la mise en place de la société capitaliste dans laquelle nous sommes encore empêtréEs. Lire, notamment, à ce sujet, le livre de Kirkpatrick Sale La révolte des Luddite , récemment réédité.

      Voilà effectivement qui ne pourra qu’être indispensable à savoir aujourd’hui, à un moment où il est non seulement vital de remettre en cause radicalement ce progrès qui nous est imposé mais qu’en plus, comme tu le fais justement remarquer, c’est le travail en tant que tel, et de façon générale, qui demande à être critiqué et pas seulement le savoir-faire et le rapport qualitatif qui y sont incorporés (comme à l’époque luddite).

    • Je ne sais pas si les IA vont remplacer les développeurs mais penser qu’un développeur n’est qu’un pondeur de code qu’on pourrait automatiser en deux coups de cuillère à pot est une erreur. Je vois bien que la plus grosse difficulté aujourd’hui pour beaucoup de développeurs (notamment débutants), ce n’est pas vraiment coder mais plutôt comprendre et analyser les besoins. Cela fait d’ailleurs des années que les développeurs sont très assistés dans leur flux de travail, pour ce qui est de produire du code en tout cas. A la limite on peut se plaindre que le métier est devenu bien plus industriel et moins artisanal, si on veut faire un parallèle avec les luddites.

    • ravi que cela te rappelle visiblement de bons souvenir, @simplicissimus ;-) mais pour ce qui me concerne, justement, autant je porte grand intérêt à l’œuvre de Marx - avec toute la distance critique qui s’impose (et là, je n’évoque même pas sa pratique politique plus que contestable au moment de la première internationale) - autant je n’ai jamais pris cette affaire de « baisse tendancielle du taux de profit » pour quelque chose de bien utile à la théorie révolutionnaire ! Je garde, au contraire, les pires souvenirs de débats furieux sur ce thème de la part de militants empêtrés dans des logiques religieuses défendant des textes sacrés.

      Il n’en reste pas moins que la question du travail à l’heure d’une extrême numérisation et de l’automatisation des moyens de production, quel que soit le secteur d’activité, doit être interrogée aujourd’hui en terme de stratégie de résistance au capitalisme.

      Sans vouloir lancer un quelconque troll je pense que Marx s’est même fourvoyé sur nombre de prédictions globalisantes et autres « lois », sous couvert de scientificité, qui se sont avérées fausses avec le temps ; dont la fameuse baisse tendancielle du taux de profit et l’inéluctabilité de la faillite du capitalisme...

      Voir également à ce sujet, via @colporteur, ce que disait Tronti et qui me semble très pertinent à propos de la prédiction de Marx concernant la prolétarisation croissante et « le passage de l’ouvrier-masse au bourgeois-masse »

      https://seenthis.net/messages/1012626#message1012639

    • Mais pas confond’ le taux de profit, calculable par les prix, et pour des entreprises précises (qui peuvent gonfler ou crasher), et la baisse tendencielle de la valeur qui depuis des décennies est à l’échelle mondiale, globale. Peu importe que telle entreprise ou milliardaire gonfle irrationnellement, ça change rien que sur le système entier ya de moins en moins de valeur (et donc de plus en plus de surnuméraires, entre autre).
      http://www.palim-psao.fr/2015/07/critique-de-la-valeur-et-societe-globale-entretien-avec-anselm-jappe.html

      Cela démontre son caractère intrinsèquement irrationnel, destructeur et auto-destructeur. Le capitaliste particulier doit s’imposer dans la concurrence s’il ne veut pas être écrasé par elle. Il doit donc produire avec le moins de main d’œuvre possible pour vendre à meilleur marché. Cependant, cet intérêt du capitaliste particulier s’oppose absolument à l’intérêt du système capitaliste dans son ensemble, pour lequel la baisse du taux de plus-value, et finalement de la masse de plus-value, représente une menace mortelle, à la longue. Ce qui caractérise la société capitaliste est exactement cette absence d’une véritable instance qui assure l’intérêt général, ne fût-ce que l’intérêt capitaliste. Le capitalisme se base sur la concurrence et l’isolement des acteurs économiques. Là où règne le fétichisme de la marchandise, il ne peut pas exister de conscience au niveau collectif. Toutes les tentatives historiques de « régulation », que ce soit à travers l’État ou à travers des cartels, des accords entre capitalistes, etc., n’ont marché que temporairement. Pendant une longue période, entre les années 1930 et 1970, on parlait souvent de « capitalisme monopoliste » ou « régulé » : l’intérêt général du système capitaliste aurait triomphé sur les intérêts des capitaux particuliers, disait-on, à travers des États très forts et à travers la concentration du capital sous forme de monopoles. Beaucoup de théoriciens marxistes, même parmi les meilleurs, comme l’École de Francfort, Socialisme ou Barbarie ou les situationnistes, y ont vu un stade définitif du capitalisme, marqué par la stabilité. Ensuite, le triomphe du néo-libéralisme a démenti ces pronostics. La concurrence sauvage a fait son retour sur fond de crise, et la dérive autodestructrice du système est devenue visible. Dans l’économie comme dans l’écologie, comme dans le désordre social, chaque acteur contribue, pour assurer sa survie immédiate, à une catastrophe globale qui finalement le frappera avec certitude.

  • Migrations : l’Union européenne, droit dans le mur

    La Commission européenne affirme que l’UE ne finance pas de « murs » anti-migrants à ses #frontières_extérieures, malgré les demandes insistantes d’États de l’est de l’Europe. En réalité, cette « ligne rouge » de l’exécutif, qui a toujours été floue, s’efface de plus en plus.

    Le 14 juin dernier, le naufrage d’un bateau entraînait la noyade de centaines de personnes exilées. Quelques jours auparavant, le 8 juin, les États membres de l’Union européenne s’enorgueillissaient d’avoir trouvé un accord sur deux règlements essentiels du « Pacte européen pour l’asile et la migration », qui multipliera les procédures d’asile express dans des centres de détention aux frontières de l’Europe, faisant craindre aux ONG une nouvelle érosion du droit d’asile.

    Dans ce contexte délétère, un groupe d’une douzaine d’États membres, surtout d’Europe de l’Est, réclame que l’Union européenne reconnaisse leur rôle de « protecteurs » des frontières de l’Union en autorisant le financement européen de murs, #clôtures et #barbelés pour contenir le « flux migratoire ». Le premier ministre grec, Kyriákos Mitsotákis, avait même estimé que son pays était en première ligne face à « l’invasion de migrants ».

    Officiellement, la Commission européenne se refuse toujours à financer les multiples projets de clôtures anti-migrants qui s’érigent le long des frontières extérieures de l’UE. « Nous avons un principe bien établi : nous ne finançons pas de murs ni de barbelés. Et je pense que cela ne devrait pas changer », avait encore déclaré Ylva Johansson, la commissaire européenne aux affaires intérieures, le 31 janvier. Pourtant, la ligne rouge semble inexorablement s’effacer.

    Le 7 octobre 2021, les ministres de douze États, dont la #Grèce, la #Pologne, la #Hongrie, la #Bulgarie ou les #Pays_baltes, demandaient par écrit à la Commission que le financement de « #barrières_physiques » aux frontières de l’UE soit une « priorité », car cette « mesure de protection » serait un outil « efficace et légitime » dans l’intérêt de toute l’Union. Une demande qu’ils réitèrent depuis à toute occasion.

    Les États membres n’ont pas attendu un quelconque « feu vert » de la Commission pour ériger des clôtures. Les premières ont été construites par l’Espagne dans les années 1990, dans les enclaves de Ceuta et Melilla. Mais c’est en 2015, après l’exil de centaines de milliers de Syrien·nes fuyant la guerre civile, que les barrières se sont multipliées. Alors que l’Union européenne comptait 315 kilomètres de fil de fer et barbelés à ses frontières en 2014, elle en totalisait 2 048 l’an passé.

    Depuis 2021, ce groupe d’États revient sans cesse à la charge. Lors de son arrivée au sommet des dirigeants européens, le 9 février dernier, Victor Orbán (Hongrie) annonçait la couleur : « Les barrières protègent l’Europe. » Les conclusions de ce sommet, ambiguës, semblaient ouvrir une brèche dans la politique européenne de financement du contrôle aux frontières. Les États demandaient « à la Commission de mobiliser immédiatement des fonds pour aider les États membres à renforcer […] les infrastructures de protection des frontières ».

    Dans ses réponses écrites aux questions de Mediapart, la Commission ne mentionne plus aucune ligne rouge : « Les États membres ont une obligation de protéger les frontières extérieures. Ils sont les mieux placés pour définir comment le faire en pratique d’une manière qui […] respecte les droits fondamentaux. »

    Si l’on en croit le ministre de l’intérieur grec, Panagiótis Mitarákis, les dernières résistances de la Commission seraient en train de tomber. Le 24 février, il affirmait, au sujet du projet grec d’#extension et de renforcement de sa clôture avec la Turquie, le long de la rivière #Evros, que la Commission avait « accepté que certaines dépenses pour la construction de la barrière soient financées par l’Union européenne ».

    Pour Catherine Woollard, de l’ONG Ecre (Conseil européen pour les réfugiés et exilés), « c’est important que la Commission résiste à ces appels de financement des murs et clôtures, car il faut respecter le droit de demander l’asile qui implique un accès au territoire. Mais cette position risque de devenir symbolique si les barrières sont tout de même construites et qu’en plus se développent des barrières d’autres types, numériques et technologiques, surtout dans des États qui utilisent la force et des mesures illégales pour refouler les demandeurs d’asile ».

    D’une ligne rouge à une ligne floue

    Au sein de l’ONG Statewatch, Chris Jones estime que « cette “ligne rouge” de la Commission européenne, c’est du grand n’importe quoi ! Cela fait des années que l’Union européenne finance des dispositifs autour ou sur ces clôtures, des #drones, des #caméras, des #véhicules, des #officiers. Dire que l’UE ne finance pas de clôtures, c’est uniquement sémantique, quand des milliards d’euros sont dépensés pour fortifier les frontières ». Même diagnostic chez Mark Akkerman, chercheur néerlandais au Transnational Institute, pour qui la « #ligne_rouge de la Commission est plutôt une ligne floue ». Dans ses travaux, il avait déjà démontré qu’en 2010, l’UE avait financé l’achat de #caméras_de_vidéosurveillance à #Ceuta et la construction d’un #mirador à #Melilla.

    Lorsqu’il est disponible, le détail des dépenses relatives au contrôle des frontières montre que la politique de non-financement des « murs » est une ligne de crête, car si la Commission ne finance pas le béton ni les barbelés, elle finance bien des #dispositifs qui les accompagnent.

    En 2021, par exemple, la #Lituanie a reçu 14,9 millions d’euros de fonds d’aide d’urgence pour « renforcer » sa frontière extérieure avec la Biélorussie, peut-on lire dans un rapport de la Commission. Une frontière qui, selon le ministère de l’intérieur lituanien, contacté par Mediapart, est « désormais longée d’une clôture de 530 km et d’une barrière surmontée de fils barbelés sur 360 kilomètres ». Si la barrière a pesé 148 millions d’euros sur le #budget de l’État, le ministère de l’intérieur affirme que la rénovation de la route qui la longe et permet aux gardes-frontières de patrouiller a été financée à hauteur de « 10 millions d’euros par des fonds européens ».

    En Grèce, le détail des dépenses du gouvernement, dans le cadre du fonds européen de sécurité intérieur, de 2014 à 2020, est éclairant. Toujours le long de la rivière Evros, là où est érigée la barrière physique, la police grecque a pu bénéficier en 2016 d’un apport de 15 millions d’euros, dont 11,2 millions financés par le fonds européen pour la sécurité intérieure, afin de construire 10 #pylônes et d’y intégrer des #caméras_thermiques, des caméras de surveillance, des #radars et autres systèmes de communication.

    Cet apport financier fut complété la même année par 1,5 million d’euros pour l’achat d’#équipements permettant de détecter les battements de cœur dans les véhicules, coffres ou conteneurs.

    Mais l’enjeu, en Grèce, c’est avant tout la mer, là où des bateaux des gardes-côtes sont impliqués dans des cas de refoulements documentés. Dans son programme d’action national du fonds européen relatif à la gestion des frontières et des visas, écrit en 2021, le gouvernement grec envisage le renouvellement de sa flotte, dont une dizaine de bateaux de #patrouille côtière, équipés de #technologies de #surveillance dernier cri, pour environ 60 millions d’euros. Et malgré les refoulements, la Commission européenne octroie les fonds.

    Technologies et barrières font bon ménage

    Les États membres de l’UE qui font partie de l’espace Schengen ont pour mission de « protéger les frontières extérieures ». Le droit européen leur impose aussi de respecter le droit d’asile. « Les exigences du code Schengen contredisent bien souvent l’acquis européen en matière d’asile. Lorsqu’un grand nombre de personnes arrivent aux frontières de l’Union européenne et qu’il existe des pressions pour faire baisser ce nombre, il est presque impossible de le faire sans violer certaines règles relatives au droit d’asile », reconnaît Atanas Rusev, directeur du programme « sécurité » du Centre pour l’étude de la démocratie, basé en Bulgarie.

    La Bulgarie est au cœur de ces tiraillements européens. En 2022, la police a comptabilisé 164 000 passages dits « irréguliers » de sa frontière, contre 55 000 l’année précédente. Des demandeurs d’asile qui, pour la plupart, souhaitent se rendre dans d’autres pays européens.

    Les Pays-Bas ou l’Autriche ont fait pression pour que la #Bulgarie réduise ce nombre, agitant la menace d’un report de son intégration à l’espace Schengen. Dans le même temps, des ONG locales, comme le Helsinki Committee Center ou le Refugee Help Group, dénoncent la brutalité qui s’exerce sur les exilé·es et les refoulements massifs dont ils sont victimes. Le pays a construit une clôture de 234 kilomètres le long de sa frontière avec la Turquie.

    Dans son plan d’action, le gouvernement bulgare détaille son intention de dépenser l’argent européen du fonds relatif à la gestion des frontières, sur la période 2021-2027, pour renforcer son « système de surveillance intégré » ; une collecte de données en temps réel par des caméras thermiques, des #capteurs_de_mouvements, des systèmes de surveillance mobiles, des #hélicoptères.

    Philip Gounev est consultant dans le domaine de la gestion des frontières. Il fut surtout ministre adjoint des affaires intérieures en Bulgarie, chargé des fonds européens, mais aussi de l’érection de la barrière à la frontière turque. Il explique très clairement la complémentarité, à ses yeux, des différents dispositifs : « Notre barrière ne fait que ralentir les migrants de cinq minutes. Mais ces cinq minutes sont importantes. Grâce aux caméras et capteurs qui détectent des mouvements ou une brèche dans la barrière, l’intervention des gardes-frontières est rapide. »

    L’appétit pour les technologies et le numérique ne fait que croître, au point que des ONG, comme l’EDRi (European Digital Rights) dénoncent la construction par l’UE d’un « #mur_numérique ». Dans ce domaine, le programme de recherche européen #Horizon_Europe et, avant lui, #Horizon_2020, tracent les contours du futur numérisé des contrôles, par le financement de projets portés par l’industrie et des centres de #recherche, au caractère parfois dystopique.

    De 2017 à 2021, « #Roborder » a reçu une aide publique de 8 millions d’euros. L’idée est de déployer une armada de véhicules sans pilotes, sur la mer ou sur terre, ainsi que différents drones, tous munis de caméras et capteurs, et dont les informations seraient croisées et analysées pour donner une image précise des mouvements humains aux abords des frontières. Dans son programme d’action national d’utilisation du fonds européen pour la gestion des frontières, la Hongrie manifeste un intérêt appuyé pour « l’adaptation partielle des résultats » de Roborder via une série de projets pilotes à ses frontières.

    Les #projets_de_recherche dans le domaine des frontières sont nombreux. Citons « #Foldout », dont les 8 millions d’euros servent à développer des technologies de #détection de personnes, à travers des #feuillages épais « dans les zones les plus reculées de l’Union européenne ». « Le développement de technologies et de l’#intelligence_artificielle aux frontières de l’Europe est potentiellement plus puissant que des murs, décrypte Sarah Chandler, de l’EDRi. Notre inquiétude, c’est que ces technologies soient utilisées pour des #refoulements aux frontières. »

    D’autres projets, développés sous l’impulsion de #Frontex, utilisent les croisements de #données et l’intelligence artificielle pour analyser, voire prédire, les mouvements migratoires. « Le déploiement de nouvelles technologies de surveillance, avec la construction de barrières pour bloquer les routes migratoires, est intimement lié à des dangers accrus et provoque davantage de morts des personnes en mouvement », peut-on lire dans un rapport de Statewatch. Dans un contexte de droitisation de nombreux États membres de l’Union européenne, Philip Gounev pense de son côté que « le financement de barrières physiques par l’UE deviendra inévitable ».

    https://www.mediapart.fr/journal/international/170723/migrations-l-union-europeenne-droit-dans-le-mur
    #murs #barrières_frontalières #migrations #financement #UE #EU #Union_européenne #technologie #complexe_militaro-industriel

  • Give Every AI a Soul—or Else | WIRED
    https://www.wired.com/story/give-every-ai-a-soul-or-else

    Quand on demande aux auteurs de science fiction d’imaginer des formes de régulation, on tombe parfois sur des idées étranges... qui viennent certainement de la conception d’IA comme des entités “human-like”, non pas comme chaque humain (sentient et ayant un corps - quoique ce dernier point est évoqué pour les IA aussi) mais comme les civilisations d’humains qui s’auto-contrôlent.

    Why this sudden wave of concern? Amid the toppling of many clichéd assumptions, we’ve learned that so-called Turing tests are irrelevant, providing no insight at all into whether generative large language models—GLLMs or “gollems”—are actually sapient beings. They will feign personhood, convincingly, long before there’s anything or anyone “under the skull.”

    Anyway, that distinction now appears less pressing than questions of good or bad—or potentially lethal—behavior.

    This essay is adapted from David Brin’s nonfiction book in progress, Soul on Ai.

    Some remain hopeful that a merging of organic and cybernetic talents will lead to what Reid Hoffman and Marc Andreesen have separately called “amplification intelligence.” Or else we might stumble into lucky synergy with Richard Brautigan’s “machines of loving grace.” But worriers appear to be vastly more numerous, including many elite founders of a new Center for AI Safety who fret about rogue AI misbehaviors, from irksome all the way to “existentially” threatening human survival.

    Some short-term remedies, like citizen-protection regulations recently passed by the European Union, might help, or at least offer reassurance. Tech pundit Yuval Noah Harari proposed a law that any work done by gollems or other AI must be so labeled. Others recommend heightened punishments for any crime that’s committed with the aid of AI, as with a firearm. Of course, these are mere temporary palliatives.

    Un peu de SF...

    By individuation I mean that each AI entity (he/she/they/ae/wae) must have what author Vernor Vinge, way back in 1981, called a true name and an address in the real world. As with every other kind of elite, these mighty beings must say, “I am me. This is my ID and home-root. And yes, I did that.”

    Hence, I propose a new AI format for consideration: We should urgently incentivize AI entities to coalesce into discretely defined, separated individuals of relatively equal competitive strength.

    Each such entity would benefit from having an identifiable true name or registration ID, plus a physical “home” for an operational-referential kernel. (Possibly “soul”?) And thereupon, they would be incentivized to compete for rewards. Especially for detecting and denouncing those of their peers who behave in ways we deem insalubrious. And those behaviors do not even have to be defined in advance, as most AI mavens and regulators and politicians now demand.

    Not only does this approach farm out enforcement to entities who are inherently better capable of detecting and denouncing each other’s problems or misdeeds. The method has another, added advantage. It might continue to function, even as these competing entities get smarter and smarter, long after the regulatory tools used by organic humans—and prescribed now by most AI experts—lose all ability to keep up.

    Putting it differently, if none of us organics can keep up with the programs, then how about we recruit entities who inherently can keep up? Because the watchers are made of the same stuff as the watched.

    Personally, I am skeptical that a purely regulatory approach would work, all by itself. First because regulations require focus, widely shared political attention, and consensus to enact, followed by implementation at the pace of organic human institutions—a sloth/snail rate, by the view of rapidly adapting cybernetic beings. Regulations can also be stymied by the “free-rider problem”—nations, corporations, and individuals (organic or otherwise) who see personal advantage in opting out of inconvenient cooperation.

    There is another problem with any version of individuation that is entirely based on some ID code: It can be spoofed. If not now, then by the next generation of cybernetic scoundrels, or the next.

    I see two possible solutions. First, establish ID on a blockchain ledger. That is very much the modern, with-it approach, and it does seem secure in theory. Only that’s the rub. It seems secure according to our present set of human-parsed theories. Theories that AI entities might surpass to a degree that leaves us cluelessly floundering.

    Another solution: A version of “registration” that’s inherently harder to fool would require AI entities with capabilities above a certain level to have their trust-ID or individuation be anchored in physical reality. I envision—and note: I am a physicist by training, not a cyberneticist—an agreement that all higher-level AI entities who seek trust should maintain a Soul Kernel (SK) in a specific piece of hardware memory, within what we quaintly used to call a particular “computer.”

    Yes, I know it seems old-fashioned to demand that instantiation of a program be restricted to a specific locale. And so, I am not doing that! Indeed, a vast portion, even a great majority, of a cyber entity’s operations may take place in far-dispersed locations of work or play, just as a human being’s attention may not be aimed within their own organic brain, but at a distant hand, or tool. So? The purpose of a program’s Soul Kernel is similar to the driver’s license in your wallet. It can be interrogated in order to prove that you are you.

    Again, the key thing I seek from individuation is not for all AI entities to be ruled by some central agency, or by mollusk-slow human laws. Rather, I want these new kinds of über-minds encouraged and empowered to hold each other accountable, the way we already (albeit imperfectly) do. By sniffing at each other’s operations and schemes, then motivated to tattle or denounce when they spot bad stuff. A definition that might readjust to changing times, but that would at least keep getting input from organic-biological humanity.

    Especially, they would feel incentives to denounce entities who refuse proper ID.

    If the right incentives are in place—say, rewards for whistle-blowing that grant more memory or processing power, or access to physical resources, when some bad thing is stopped—then this kind of accountability rivalry just might keep pace, even as AI entities keep getting smarter and smarter. No bureaucratic agency could keep up at that point. But rivalry among them—tattling by equals—might.

    Above all, perhaps those super-genius programs will realize it is in their own best interest to maintain a competitively accountable system, like the one that made ours the most successful of all human civilizations. One that evades both chaos and the wretched trap of monolithic power by kings or priesthoods … or corporate oligarchs … or Skynet monsters. The only civilization that, after millennia of dismally stupid rule by moronically narrow-minded centralized regimes, finally dispersed creativity and freedom and accountability widely enough to become truly inventive.

    David Brin is an astrophysicist whose international best-selling novels include The Postman, Earth, Existence, and Hugo Award winners Startide Rising and The Uplift War. He consults for NASA, companies, agencies, and nonprofits about the onrushing future. Brin’s first nonfiction book, The Transparent Society, won the Freedom of Speech Award. His new one is Vivid Tomorrows: Science Fiction and Hollywood.

    #Intelligence_artificielle #Individuation #Science_fiction #Régulation

  • Nvidia’s Jensen Huang Is Transforming A.I., One Leather Jacket at a Time - The New York Times
    https://www.nytimes.com/2023/06/14/style/jensen-huang-nvidia-leather-jackets.html?nl=todaysheadlines&emc=edit_th_202

    J’adore les articles « style » du New York Times. Quand l’habit fait le moine.

    There’s a new tech titan in town and he’s preparing to enter the pantheon. How do we know?

    Well, Jensen Huang, the chief executive of Nvidia, has the company: He co-founded Nvidia in 1993, and the market cap is now about $950 billion, though at the end of May it was briefly in the $1 trillion club, putting it in a similar league to Apple, Alphabet and Amazon.

    He has the product: a data processing chip that is key to A.I. development, which is to say, the life of ChatGPT and Bard, which is to say, the current paradigm shift.

    And he has the look: a black leather jacket he wears every time he is in the public eye, most often with a black T-shirt and black jeans.

    Mr. Huang wore a black leather jacket when he was on the cover of Time as one of its men of the year in 2021. A black leather jacket during his keynote speeches at multiple GTC developer conferences since 2018. To deliver the 2023 World ITF keynote and the 2023 Computex 2023 keynote. He even identified himself, back in a Reddit AMA in 2016, as “the guy in the leather jacket.”

    Sometimes his leather jackets have collars, sometimes they look more like motorcycle jackets; sometime a lot of zips are involved, sometimes not. But the jackets are always black. He has been wearing them, a spokesman said, “for at least 20 years.” The point is that he always looks the same.

    There hasn’t been a popularly identifiable face of A.I. yet. ChatGPT and Bard are anonymous brains. That’s part of what makes A.I. so eerie — its disembodied nature. Sam Altman, the chief executive of OpenAI, is ubiquitous, but looks kind of generic. Mr. Huang and his leather jacket are poised to step neatly into that gap.

    The jacket is an object that has become a signifier — of a person but also the great leap forward that person represents. And that association puts Mr. Huang in the same club as Steve “black turtleneck” Jobs, Mark “gray T-shirt” Zuckerberg and Jeff “Pitbull” Bezos as a chief executive who understands that the difference between a company that is a world-changing success and a company that is a world-changing success that becomes a part of pop culture may be the image of its figurehead. One that’s just enough of a caricature to work its way into the public imagination and become the avatar of a movement.

    To put this in context, Superstar Jacket sells two versions of a “Jensen Huang leather jacket,” alongside a “Fast & Furious 10 Vin Diesel jacket,” a “Snoop Dogg leather jacket” and an “Indiana Jones leather jacket.”

    But Mr. Huang is the only C.E.O. to have a jacket named after him.

    Vanessa Friedman has been the fashion director and chief fashion critic for The Times since 2014. In this role she covers global fashion for both The New York Times and International New York Times. @VVFriedman

    #Style #Fashion #Intelligence_artificielle #Jensen_Huang #Pop_culture

  • « Elon Musk laisse ceux qui partagent ses tendances à l’autoritarisme déverser leur propagande sur Twitter »
    https://www.lemonde.fr/idees/article/2023/06/14/elon-musk-laisse-ceux-qui-partagent-ses-tendances-a-l-autoritarisme-deverser

    Alors qu’Elon Musk sera à Paris pour participer à VivaTech, un salon sur les nouvelles technologies, qui se déroule du 14 au 17 juin, Fred Turner, spécialiste de l’histoire d’Internet, revient sur l’évolution de Twitter depuis son rachat par le milliardaire américain.

    Propos recueillis par Marc-Olivier Bherer

    Fred Turner est professeur de communication à l’université Stanford (Californie). Ses travaux portent sur l’histoire des nouvelles technologies depuis la fin de la seconde guerre mondiale. Son livre Aux sources de l’utopie numérique (C & F, 2012) l’installe comme l’un des plus fins connaisseurs de l’histoire du Web et de la culture propre à la Silicon Valley. Le 16 juin, il prononcera une conférence à Sciences Po Paris.

    Elon Musk a racheté Twitter, en octobre 2022. Ce réseau social a-t-il profondément changé depuis ?

    Au moment de cette transaction, Twitter occupait une position enviable sur le marché. Certes, ses revenus étaient limités et cette société avait de profonds problèmes financiers. Mais elle occupait une position dominante. D’autres avaient tenté de lancer des plates-formes concurrentes, sans parvenir à faire jeu égal. De sorte que Twitter, avant Elon Musk, était le lieu du débat en ligne. Des garde-fous avaient été mis en place pour tenter de contenir les discours haineux et la désinformation. Mais, dès son arrivée, Musk s’est débarrassé de tout cela.

    Désormais, la publicité est davantage présente, tout comme les contenus portant sur des célébrités ou générés par elles. La droite en général occupe également un espace beaucoup plus important. Certains contenus sont mis en avant, alors même qu’ils font pratiquement appel à la violence en défense de l’ancien président américain Donald Trump.

    Les internautes ne retrouvent plus cette diversité de points de vue à laquelle ils avaient accès auparavant. Dans le débat tel qu’il existe aujourd’hui sur Twitter, il est plus difficile de distinguer le bruit d’un signal, d’une information pertinente et significative. Le réseau social occupe toujours une place dominante, mais il a perdu en influence.
    Lors d’un échange avec Elon Musk retransmis en direct sur Twitter, le gouverneur ultraconservateur de Floride, Ron DeSantis, a annoncé, fin mai, qu’il se portait candidat à la primaire républicaine. L’ancien animateur de Fox News Tucker Carlson, figure de l’extrême droite américaine, vient, lui, de relancer son émission sur Twitter. Ce réseau social fait-il le jeu de la droite la plus dure ?

    Deux forces sont à l’œuvre, ici : la droite américaine et la Silicon Valley. Aux Etats-Unis, un combat pour l’avenir de la démocratie est engagé. Le Parti républicain a pris un virage autoritaire, avec un durcissement de ses positions sans précédent dans l’histoire récente. Cette droite souhaite pouvoir s’appuyer sur ceux qui contrôlent une grande partie du système médiatique américain, les acteurs de la Silicon Valley.

    Elon Musk est le propriétaire de Twitter, il décide ce qui peut être dit. Il laisse ceux qui partagent ses tendances à l’autoritarisme déverser leur propagande. La trop faible intervention de l’Etat américain pour encadrer ce secteur est un grave échec, c’est l’une des raisons pour lesquelles notre démocratie est aujourd’hui en crise.

    L’autoritarisme de Musk ne s’inspire cependant pas d’une logique totalitaire, selon laquelle l’Etat contrôlerait les individus. Il incarne plutôt un autoritarisme individualiste, qui s’en remet au marché pour étouffer la voix des plus faibles. L’égalité en matière de liberté d’expression n’existe pas. Les individus fortunés, qui détiennent des médias comme Twitter, peuvent s’assurer de contrôler le débat public. L’autoritarisme individualiste permet aux détenteurs de systèmes aussi influents que Twitter de garder le pouvoir.
    Qu’est-ce qui explique que nous en soyons arrivés là ?

    Un malentendu s’est installé sur ce qu’est véritablement Twitter. Elon Musk veut nous faire croire que ce réseau social est un espace de discussion, ce qui laisse entendre que ce qui s’y passe relève uniquement de la liberté d’expression. Pour l’entrepreneur, si tout le monde peut s’exprimer de façon égale, l’ordre va émerger naturellement.

    Mais, en fait, Twitter ressemble davantage à une plate-forme de diffusion comparable à la télévision ou à la radio, qui sont encadrées par un système étendu de lois et de régulations. Une chaîne de télé est, par exemple, responsable des propos qu’elle diffuse, ce n’est pas le cas des réseaux sociaux. Twitter a, par ailleurs, cette particularité qu’il permet à ses utilisateurs de diffuser massivement leurs idées, tous les autres internautes peuvent y avoir accès. Sur Facebook, les choses se passent autrement, ce n’est pas une plate-forme aussi ouverte : avant de pouvoir consulter le contenu d’un utilisateur, il faut faire partie de son cercle d’amis.
    Dès le 25 août, de nouvelles règles européennes encadreront les plates-formes numériques, entre autres pour lutter contre la désinformation. Elon Musk ne semble pas pressé de s’y conformer, au point que le ministre de la transition numérique, Jean-Noël Barrot, a déclaré, le 29 mai, que « Twitter sera banni de l’Union européenne, s’il ne se conforme pas à [leurs] règles ». N’est-ce pas aller trop loin ?

    Si Twitter n’applique pas ces règles, je crois que l’Europe aura raison de prendre une telle décision. Je ne suis pas particulièrement favorable à l’intervention de l’Etat sur le marché, mais dans ce cas précis, je suis convaincu que ce sera la bonne chose à faire. L’Etat américain reste en position de faiblesse face au secteur technologique. Avec sa nouvelle réglementation, l’Union européenne défend l’intérêt public bien au-delà de ses frontières.
    Lire aussi la chronique : Article réservé à nos abonnés Sur Twitter, « Elon Musk fait le rude apprentissage de la modération des contenus »
    Fin mars, Elon Musk a signé, avec plus de 1 000 spécialistes et entrepreneurs des nouvelles technologies, une tribune appelant à ce que l’on encadre le développement de l’intelligence artificielle. Le patron de Twitter a lancé, en avril, une start-up dans ce domaine. Que vous inspirent ces récents développements ?

    Commençons par arrêter de parler d’intelligence artificielle, cette expression anthropomorphique est trompeuse, les ordinateurs ne sont pas en train de s’humaniser. Ce n’est que du marketing et il n’y a rien que la Silicon Valley n’aime davantage que de vendre du rêve, l’idée qu’elle s’apprête à changer le monde. Il n’y a pas si longtemps, c’était les cryptomonnaies…

    Pour le moment, ce que l’on appelle « intelligence artificielle » n’est rien de plus que des machines d’analyse à grande échelle. De sorte que l’image la plus appropriée pour parler de ces technologies emprunte plutôt au vocabulaire minier, car elles fouillent d’énormes quantités de données, du texte, des images, des enregistrements audio trouvés sur Internet, pour en extraire une réponse à la question formulée par l’utilisateur. C’est ce que fait ChatGPT.

    Laissons tomber les effets de manche de la Silicon Valley et concentrons-nous sur les dangers dont cette technologie est porteuse. Les créateurs de ces machines ne les maîtrisent pas parfaitement, elles peuvent prendre des décisions inattendues, imprévisibles. Cette technologie peut disposer d’une forme d’autonomie qui nous dépasse.

    Je crois qu’il faut donc faire comme pour le secteur minier et encadrer l’accès au sous-sol. Des lois doivent être mises en place pour encadrer l’accès aux données et ce qu’il est possible de faire avec ces données. Requérir que le fonctionnement de ces algorithmes soit accessible au régulateur me semble également une bonne chose.

    Marc-Olivier Bherer

    #Fred_Turner #Elon_Musk #Intelligence_artificielle

  • Gouverner par les #données ? Pour une sociologie politique du numérique

    Cet ouvrage est une invitation à entrer dans la boîte noire des #algorithmes, non pas d’un point de vue technique, mais de sociologie politique. La multiplication des données disponibles en ligne, couplée au progrès de l’#intelligence_artificielle, ont-ils des effets sur les manières de gouverner ? Les algorithmes peuvent-ils « prédire » les comportements des citoyens ? Comment sont fabriqués ces algorithmes, dits prédictifs, et par qui ? Sont-ils neutres et objectifs ? Quels sont les enjeux sociaux, éthiques et politiques, liés à l’exploitation des données ? Et quelles sont les stratégies commerciales et marchandes à l’œuvre ? Peut-on encore protéger nos données ?

    Derrière l’exploitation des données, il y a bien des #visions_du_monde. Il s’agit alors de penser l’#algorithme comme un objet politique et social, produit par des acteurs et issu de commandes privées et désormais aussi publiques. Ces lignes de codes et de calculs complexes ne peuvent être dissociées de leurs conditions de production : elles sont encastrées dans un ensemble organisationnel et professionnel spécifique et portées par des #intentions et volontés politiques.

    À travers une série d’études de cas et l’apport d’enquêtes empiriques poussées et inédites, ce volume permet de saisir en contexte comment sont utilisées nos données et quelles sont les influences possibles sur les modes de #gouvernance et les prises de décision. La force de cet ouvrage, à la croisée de la sociologie économique, du droit, des sciences politiques et de l’informatique, est de poser les bases d’une #sociologie_politique des données et du #numérique, visant à dépasser et déconstruire les mythes et les croyances véhiculées par le #big_data.

    http://catalogue-editions.ens-lyon.fr/fr/livre/?GCOI=29021100613110

    #livre #prise_de_décision

  • Un drone militaire américain piloté par une #IA se retourne contre sa tour de contrôle lors d’une simulation
    https://www.radiofrance.fr/franceinter/un-drone-militaire-americain-pilote-par-de-une-ia-se-retourne-contre-sa-

    Pendant un test #virtuel mené par l’armée américaine, un #drone d’attaque contrôlé par une #intelligence_artificielle a décidé de se retourner contre ses donneurs d’ordre afin d’arriver à son objectif final. L’armée de l’air américaine dément avoir réalisé ce test.

  • [Les ondes d’à côté] dIAgnostic
    https://www.radiopanik.org/emissions/les-ondes-d-a-cote/diagnostic

    Voici le résultat d’un atelier de création éditoriale d’étudiant·es en masters 2 en journalisme de l’ULB. La contrainte de départ était « le #care ».

    dIAgnostic de Tarik Si Sadi.

    Plus ou moins connue de tous aujourd’hui, l’intelligence artificielle a pris place dans de nombreux domaines. Le cinéma, la musique, la justice, la sécurité, l’éducation. La crainte qu’une machine puisse, un jour, remplacer l’être humain est un fantasme qui ne date pas d’hier. Pourtant, il y a un domaine qui semble épargné par le feu des critiques, c’est celui de la santé.

    [30:16] après la diffusion, des membres de la rédaction de radio panik discuteront avec tarik si sadi sur son travail. et voici le linktree qu’il a créé avec d’autres étudiant·es du master, (...)

    #intelligence_artificielle #intelligence_artificielle,care
    https://www.radiopanik.org/media/sounds/les-ondes-d-a-cote/diagnostic_15892__1.mp3