• Ces géants qui dominent le commerce agricole mondial

    En quelques décennies, une toute petite poignée d’acteurs a pris le contrôle du commerce mondial agricole, des #terres à la #finance. C’est le constat dressé par la Conférence des Nations unies sur le commerce et le développement. Peut-on laisser à quelques groupes le destin de la sécurité alimentaire mondiale ?

    C’est un #oligopole dont on ne sait presque rien, parfois même pas son nom. Une poignée d’acteurs inconnus du grand public dominent le #commerce_mondial agroalimentaire. Mais ils font tout pour se faire oublier et cacher les empires qu’ils ont construits au fil des ans, ainsi que l’emprise qu’ils ont conquise sur le monde.

    La Conférence des Nations unies sur le commerce et le développement (Cnuced) a dénombré quatorze grands groupes régnant sur ce secteur. À eux seuls, les quatre premiers – #Cargill, #Archer_Daniels_Midland, #Bunge, #Louis_Dreyfus – contrôlent quelque 70 % du marché agricole mondial, selon ses estimations.

    L’envolée des #prix alimentaires partout dans le monde, nourrissant une #inflation planétaire mais aussi des pénuries et des risques aggravés de #crise_alimentaire dans les pays les plus pauvres, a amené l’institution internationale à se pencher longuement dans son dernier rapport annuel sur le rôle exercé par ces géants de l’#agrobusiness dans cette période. Il paraît écrasant.

    Si les superprofits des pétroliers ont été au cœur de toutes les discussions, ceux des géants de l’agrobusiness sont passés inaperçus. Pourtant, ils ont été les autres grands gagnants de la succession de crises (sortie de la pandémie, guerre en Ukraine, tensions géopolitiques) qui se sont enchaînées à un rythme effréné au cours des quatre dernières années.

    Celles-ci se sont traduites par une volatilité inédite du cours de toutes les matières premières agricoles (#blé, #soja, #maïs, #tournesol, #riz, #sucre, #café, #cacao) dont ces grands groupes ont su tirer parti au mieux de leurs intérêts. En 2022, Cargill, Archer Daniels Midland, Bunge et Louis Dreyfus ont réalisé un bénéfice cumulé de plus de 17 milliards de dollars, soit près du triple de leurs résultats de 2020. « Les #bénéfices totaux des neuf grandes sociétés d’#engrais au cours des cinq dernières années sont passés d’une moyenne d’environ 14 milliards de dollars avant la pandémie, à 28 milliards de dollars en 2021, puis au chiffre incroyable de 49 milliards de dollars en 2022 », ajoute le rapport de la #Cnuced.

    Les tensions sur les matières premières agricoles se sont un peu dissipées en 2023. Mais l’été dernier, comme le rappelle la Cnuced, « le prix du blé restait deux fois supérieur au cours d’avant la pandémie ». Cela est vrai pour pratiquement tous les prix agricoles, sans parler des cas spécifiques comme le cacao ou le café, qui atteignent actuellement des cours stratosphériques. Penser que des prix agricoles élevés profitent aux producteurs, « c’est ignorer le rôle majeur joué par ces groupes internationaux d’agrobusiness qui contrôlent nombre de liens dans la chaîne de valeur mondiale et dans la dynamique de la formation des prix du système mondial alimentaire », insiste l’institution des Nations unies.

    De ces groupes, on ne sait pratiquement rien. Sur les quatorze groupes repérés comme les plus importants par la Cnuced, « huit seulement sont cotés en bourse et publient leurs comptes », souligne le rapport. Tous les autres prospèrent à l’abri des regards. Jouant des frontières et des gouvernements, tous cultivent l’opacité, utilisent les failles et les porosités du système pour évoluer dans une totale impunité.

    Souvent partis du négoce, ils n’ont cessé d’étendre leur emprise, prenant le contrôle d’usines de transformation, de capacités de stockage, de compagnies de transport. Puis ils ont mis la main sur les semences et les engrais, avant de devenir de gigantesques propriétaires fonciers. Ils contrôlent désormais des centaines de milliers d’hectares en Ukraine, au Brésil, en Argentine, en Australie, au Canada. En un mot, dans tous les grands pays agricoles où ils peuvent pratiquer des cultures intensives à échelle industrielle, en pratiquant des déforestations massives, s’il le faut.

    Ils sont en position de dicter leurs conditions aux producteurs locaux et aux gouvernements, d’influencer les modes d’alimentation de toute la planète. Demain, ils n’hésiteront pas à mettre en danger les approvisionnements mondiaux, beaucoup étant prêts à troquer la production alimentaire pour celle d’agrocarburants, estimée beaucoup plus rémunératrice.

    Au cours de décennies de fusions et d’acquisitions, « de tels groupes ont pu étendre leur influence de haut en bas de la chaîne d’approvisionnement, tout en amassant d’énormes quantités de données de marché. Si une poignée de sociétés continue de détenir un pouvoir démesuré sur les systèmes alimentaires mondiaux, toute politique visant à atténuer les effets à court terme de la flambée des prix alimentaires sera vaine à long terme », prévient la Cnuced.
    Dans les pas de la finance de l’ombre

    Car un autre changement majeur est intervenu au cours des quinze dernières années, qui n’a pas été suffisamment analysé, selon le rapport : ces géants de l’agrobusiness ont non seulement changé de dimension, mais aussi de nature. Ils sont devenus des acteurs financiers à part entière – le manque de régulation sur les marchés des matières premières leur permettant d’exercer un pouvoir déterminant sur les cours et dans la formation des prix.

    Parce que les marchés agricoles sont par nature chaotiques, que les lois de l’offre et de la demande ne s’appliquent pas conformément aux théories classiques, ils ont toujours été très liés à la finance et à la spéculation. Ce sont ces marchés qui, les premiers, ont élaboré et mis en œuvre les produits dérivés financiers, négociés de gré à gré (over the counter – OTC) afin de couvrir les risques de fluctuation des prix à court, moyen et long terme.

    Mais à partir des années 1980, de nouveaux acteurs sont entrés dans le jeu : des banques et surtout nombre d’acteurs de la finance de l’ombre (hedge funds, fonds d’investissement, gestionnaires d’actifs, etc.) sont entrés sur ces marchés. Profitant de la déréglementation des marchés agricoles, ils ont investi les lieux, développé des produits dérivés financiers de plus en plus sophistiqués, ne s’appuyant plus du tout sur des contreparties physiques, et alimentant la spéculation.

    Depuis la crise de 2008, la situation a encore évolué. Les grandes sociétés de négoce ont mis leur pas dans ceux de la finance de l’ombre, allant bien au-delà de la couverture de leurs risques. Ayant à leur disposition des informations de marché que les autres n’avaient pas, elles se sont vite imposées comme des acteurs incontournables.

    « Dans ce contexte, les très grands groupes internationaux de négoce en sont arrivés à occuper une position privilégiée, en termes de fixation des prix, accédant aux financements et participant directement aux marchés financiers, affirme encore le rapport de la Cnuced. Cela a permis non seulement des opérations spéculatives sur les plateformes organisées, mais aussi un volume grandissant de transactions entre individus ou de gré à gré sur lesquelles la plupart des gouvernements des pays avancés n’ont aucune autorité ou contrôle. »
    Démultiplications spéculatives

    Les dernières années de tensions et de risques de pénuries sur les marchés agricoles ont décuplé les appétits, poussés par l’appât du gain. Selon les chiffres publiés par la Banque des règlements internationaux, le montant total des dérivés négociés de gré à gré sur les produits agricoles, l’énergie et les métaux, a atteint un pic de 886 milliards de dollars à la mi-2022, contre une moyenne de 200 milliards de dollars avant 2020. La valeur notionnelle de ces contrats représentait alors plus de 2 000 milliards de dollars.

    L’ampleur de ces sommes illustre la puissance déstabilisatrice de la finance sur ces marchés essentiels. Tous ont empoché des milliards de superprofits au détriment des populations mondiales. Une étude récente de la Société générale indique que le groupe des dix principaux fonds « dynamiques » avait réalisé un profit de 1,9 milliard de dollars sur des contrats de blé, de maïs et de soja, au début de la guerre en Ukraine, quand les cours des produits agricoles s’envolaient, après avoir perdu de l’argent sur les mêmes contrats dans les périodes précédentes.

    Dans quelle mesure les grands groupes qui contrôlent les échanges mondiaux agricoles ont-ils utilisé leur énorme pouvoir de marché pour pousser la spéculation et augmenter leurs profits ? La Cnuced est incapable de le dire. L’opacité qui règne sur ces marchés, le manque de données fiables et l’absence de régulation et de contrôle empêchent d’avoir une vision précise sur ce qu’il se passe.

    Pour la Cnuced, cependant, le fait qu’une poignée de grands groupes ait acquis une telle taille et une telle importance sur les marchés agricoles, possédant à la fois les données essentielles et des moyens financiers immenses, des instruments financiers négociés dans l’ombre, hors du regard de tout régulateur, laisse la porte ouverte à toutes les manipulations et à toutes les manœuvres.

    La faillite de la régulation

    « Les failles dans les systèmes de régulation n’ont cessé de s’élargir », note le rapport, et d’être mises à profit par les grands groupes de négoce et les traders de matières premières. Toutes les tentatives pour apporter de la lumière sur ces marchés et renforcer la réglementation ont jusqu’à présent échoué. Les réglementations restent parcellaires, multiples, changeant souvent d’une frontière à l’autre.

    Lors de la crise financière de 2008, les législateurs se sont bien gardés de toucher aux marchés de matières premières et à la finance de l’ombre, estimant qu’ils ne représentaient que des risques subalternes. De même, rien n’a été fait pour rapprocher les activités sur les marchés de matières premières et celles sur les marchés financiers, les régulateurs estimant qu’il s’agissait de deux mondes séparés.

    Les activités des grands groupes de négoce démontrent désormais que ces deux sphères sont devenues intrinsèquement liées, les opérations financières venant en soutien – en vue souvent de maximiser les profits – des échanges agricoles. « Le profit n’est pas limité à un secteur spécifique mais est spécifique à des firmes particulières. Il est possible que des profits excessifs puissent être liés à une concentration, qui ne bénéficie seulement qu’à quelques acteurs mondiaux du secteur », écrit par euphémisme le rapport.

    La Cnuced estime qu’il est plus que temps de prendre acte de la défaillance des régulations actuelles, compte tenu des risques sous-jacents, menaçant aussi bien la sécurité alimentaire mondiale que la stabilité de la planète financière. Elle propose de multiples axes de réformes. Les uns portant sur la transparence et la limitation et le contrôle des instruments financiers, sur l’instauration d’une régulation mondial, les autres sur l’application renforcée des lois antitrusts : le commerce mondial alimentaire ne pouvant être laissé aux mains d’un oligopole qui agit dans son seul intérêt.

    https://www.mediapart.fr/journal/international/090424/ces-geants-qui-dominent-le-commerce-agricole-mondial
    #agriculture #industrie_agro-alimentaire #business #financiarisation #régulation

  • Intelligence artificielle : la grande illusion de la régulation

    « Le tournant intellectuel et créatif de l’IA s’attaque à nos capacités les plus fondamentales. Les corps de métiers doivent se mobiliser pour définir ce qu’ils sont prêts à céder et à refuser à l’industrie numérique. Faute de quoi, on se réveillera dans un monde dans lequel nous serons étrangers »

    https://jpst.it/3C8e7

    #intelligence_articifielle #IA

  • #Université, service public ou secteur productif ?

    L’#annonce d’une “vraie #révolution de l’Enseignement Supérieur et la Recherche” traduit le passage, organisé par un bloc hégémonique, d’un service public reposant sur des #carrières, des #programmes et des diplômes à l’imposition autoritaire d’un #modèle_productif, au détriment de la #profession.

    L’annonce d’une « #vraie_révolution » de l’Enseignement Supérieur et la Recherche (ESR) par Emmanuel Macron le 7 décembre, a pour objet, annonce-t-il, d’« ouvrir l’acte 2 de l’#autonomie et d’aller vers la #vraie_autonomie avec des vrais contrats pluriannuels où on a une #gouvernance qui est réformée » sans recours à la loi, avec un agenda sur dix-huit mois et sans modifications de la trajectoire budgétaire. Le président sera accompagné par un #Conseil_présidentiel_de_la_science, composé de scientifiques ayant tous les gages de reconnaissance, mais sans avoir de lien aux instances professionnelles élues des personnels concernés. Ce Conseil pilotera la mise en œuvre de cette « révolution », à savoir transformer les universités, en s’appuyant sur celles composant un bloc d’#excellence, et réduire le #CNRS en une #agence_de_moyen. Les composantes de cette grande transformation déjà engagée sont connues. Elle se fera sans, voire contre, la profession qui était auparavant centrale. Notre objet ici n’est ni de la commenter, ni d’en reprendre l’historique (Voir Charle 2021).

    Nous en proposons un éclairage mésoéconomique que ne perçoit ni la perspective macroéconomique qui pense à partir des agrégats, des valeurs d’ensemble ni l’analyse microéconomique qui part de l’agent et de son action individuelle. Penser en termes de mésoéconomie permet de qualifier d’autres logiques, d’autres organisations, et notamment de voir comment les dynamiques d’ensemble affectent sans déterminisme ce qui s’organise à l’échelle méso, et comment les actions d’acteurs structurent, elles aussi, les dynamiques méso.

    La transformation de la régulation administrée du #système_éducatif, dont nombre de règles perdurent, et l’émergence d’une #régulation_néolibérale de l’ESR, qui érode ces règles, procède par trois canaux : transformation du #travail et des modalités de construction des #carrières ; mise en #concurrence des établissements ; projection dans l’avenir du bloc hégémonique (i.e. les nouveaux managers). L’action de ces trois canaux forment une configuration nouvelle pour l’ESR qui devient un secteur de production, remodelant le système éducatif hier porté par l’État social. Il s’agissait de reproduire la population qualifiée sous l’égide de l’État. Aujourd’hui, nous sommes dans une nouvelle phase du #capitalisme, et cette reproduction est arrimée à l’accumulation du capital dans la perspective de #rentabilisation des #connaissances et de contrôle des professionnels qui l’assurent.

    Le couplage de l’évolution du système d’ESR avec la dynamique de l’#accumulation, constitue une nouvelle articulation avec le régime macro. Cela engendre toutefois des #contradictions majeures qui forment les conditions d’une #dégradation rapide de l’ESR.

    Co-construction historique du système éducatif français par les enseignants et l’État

    Depuis la Révolution française, le système éducatif français s’est déployé sur la base d’une régulation administrée, endogène, co-construite par le corps enseignant et l’État ; la profession en assumant de fait la charge déléguée par l’État (Musselin, 2022). Historiquement, elle a permis la croissance des niveaux d’éducation successifs par de la dépense publique (Michel, 2002). L’allongement historique de la scolarité (fig.1) a permis de façonner la force de travail, facteur décisif des gains de productivité au cœur de la croissance industrielle passée. L’éducation, et progressivement l’ESR, jouent un rôle structurant dans la reproduction de la force de travail et plus largement de la reproduction de la société - stratifications sociales incluses.

    À la fin des années 1960, l’expansion du secondaire se poursuit dans un contexte où la détention de diplômes devient un avantage pour s’insérer dans l’emploi. D’abord pour la bourgeoisie. La massification du supérieur intervient après les années 1980. C’est un phénomène décisif, visible dès les années 1970. Rapidement cela va télescoper une période d’austérité budgétaire. Au cours des années 2000, le pilotage de l’université, basé jusque-là sur l’ensemble du système éducatif et piloté par la profession (pour une version détaillée), s’est effacé au profit d’un pilotage pour et par la recherche, en lien étroit avec le régime d’accumulation financiarisé dans les pays de l’OCDE. Dans ce cadre, l’activité économique est orientée par l’extraction de la valeur financière, c’est à dire principalement par les marchés de capitaux et non par l’activité productive (Voir notamment Clévenot 2008).
    L’ESR : formation d’un secteur productif orienté par la recherche

    La #massification du supérieur rencontre rapidement plusieurs obstacles. Les effectifs étudiants progressent plus vite que ceux des encadrants (Piketty met à jour un graphique révélateur), ce qui entrave la qualité de la formation. La baisse du #taux_d’encadrement déclenche une phase de diminution de la dépense moyenne, car dans l’ESR le travail est un quasi-coût fixe ; avant que ce ne soit pour cette raison les statuts et donc la rémunération du travail qui soient visés. Ceci alors que pourtant il y a une corrélation étroite entre taux d’encadrement et #qualité_de_l’emploi. L’INSEE montre ainsi que le diplôme est un facteur d’amélioration de la productivité, alors que la productivité plonge en France (voir Aussilloux et al. (2020) et Guadalupe et al. 2022).

    Par ailleurs, la massification entraine une demande de différenciation de la part les classes dominantes qui perçoivent le #diplôme comme un des instruments de la reproduction stratifiée de la population. C’est ainsi qu’elles se détournent largement des filières et des établissements massifiés, qui n’assurent plus la fonction de « distinction » (voir le cas exemplaire des effectifs des #écoles_de_commerce et #grandes_écoles).

    Dans le même temps la dynamique de l’accumulation suppose une population formée par l’ESR (i.e. un niveau de diplomation croissant). Cela se traduit par l’insistance des entreprises à définir elles-mêmes les formations supérieures (i.e. à demander des salariés immédiatement aptes à une activité productive, spécialisés). En effet la connaissance, incorporée par les travailleurs, est devenue un actif stratégique majeur pour les entreprises.

    C’est là qu’apparaît une rupture dans l’ESR. Cette rupture est celle de la remise en cause d’un #service_public dont l’organisation est administrée, et dont le pouvoir sur les carrières des personnels, sur la définition des programmes et des diplômes, sur la direction des établissements etc. s’estompe, au profit d’une organisation qui revêt des formes d’un #secteur_productif.

    Depuis la #LRU (2007) puis la #LPR (2020) et la vague qui s’annonce, on peut identifier plusieurs lignes de #transformation, la #mise_en_concurrence conduisant à une adaptation des personnels et des établissements. Au premier titre se trouvent les instruments de #pilotage par la #performance et l’#évaluation. À cela s’ajoute la concurrence entre établissements pour l’#accès_aux_financements (type #Idex, #PIA etc.), aux meilleures candidatures étudiantes, aux #labels et la concurrence entre les personnels, pour l’accès aux #dotations (cf. agences de programmes, type #ANR, #ERC) et l’accès aux des postes de titulaires. Enfin le pouvoir accru des hiérarchies, s’exerce aux dépens de la #collégialité.

    La généralisation de l’évaluation et de la #sélection permanente s’opère au moyen d’#indicateurs permettant de classer. Gingras évoque une #Fièvre_de_l’évaluation, qui devient une référence définissant des #standards_de_qualité, utilisés pour distribuer des ressources réduites. Il y a là un instrument de #discipline agissant sur les #conduites_individuelles (voir Clémentine Gozlan). L’important mouvement de #fusion des universités est ainsi lié à la recherche d’un registre de performance déconnecté de l’activité courante de formation (être université de rang mondial ou d’université de recherche), cela condensé sous la menace du #classement_de_Shanghai, pourtant créé dans un tout autre but.

    La remise en question du caractère national des diplômes, revenant sur les compromis forgés dans le temps long entre les professions et l’État (Kouamé et al. 2023), quant à elle, assoit la mise en concurrence des établissements qui dépossède en retour la profession au profit des directions d’établissement.

    La dynamique de #mise_en_concurrence par les instruments transforme les carrières et la relation d’#emploi, qui reposaient sur une norme commune, administrée par des instances élues, non sans conflit. Cela fonctionne par des instruments, au sens de Lascoumes et Legalès, mais aussi parce que les acteurs les utilisent. Le discours du 7 décembre est éloquent à propos de la transformation des #statuts pour assurer le #pilotage_stratégique non par la profession mais par des directions d’établissements :

    "Et moi, je souhaite que les universités qui y sont prêtes et qui le veulent fassent des propositions les plus audacieuses et permettent de gérer la #ressource_humaine (…) la ministre m’a interdit de prononcer le mot statut. (…) Donc je n’ai pas dit qu’on allait réformer les statuts (…) moi, je vous invite très sincèrement, vous êtes beaucoup plus intelligents que moi, tous dans cette salle, à les changer vous-mêmes."

    La démarche est caractéristique du #new_management_public : une norme centrale formulée sur le registre non discutable d’une prétérition qui renvoie aux personnes concernées, celles-là même qui la refuse, l’injonction de s’amputer (Bechtold-Rognon & Lamarche, 2011).

    Une des clés est le transfert de gestion des personnels aux établissements alors autonomes : les carrières, mais aussi la #gouvernance, échappent progressivement aux instances professionnelles élues. Il y a un processus de mise aux normes du travail de recherche, chercheurs/chercheuses constituant une main d’œuvre qui est atypique en termes de formation, de types de production fortement marqués par l’incertitude, de difficulté à en évaluer la productivité en particulier à court terme. Ce processus est un marqueur de la transformation qui opère, à savoir, un processus de transformation en un secteur. La #pénurie de moyen public est un puissant levier pour que les directions d’établissement acceptent les #règles_dérogatoires (cf. nouveaux contrats de non titulaires ainsi que les rapports qui ont proposé de spécialiser voire de moduler des services).

    On a pu observer depuis la LRU et de façon active depuis la LPR, à la #destruction régulière du #compromis_social noué entre l’État social et le monde enseignant. La perte spectaculaire de #pouvoir_d’achat des universitaires, qui remonte plus loin historiquement, en est l’un des signaux de fond. Il sera progressivement articulé avec l’éclatement de la relation d’emploi (diminution de la part de l’emploi sous statut, #dévalorisation_du_travail etc.).

    Arrimer l’ESR au #régime_d’accumulation, une visée utilitariste

    L’État est un acteur essentiel dans l’émergence de la production de connaissance, hier comme commun, désormais comme résultat, ou produit, d’un secteur productif. En dérégulant l’ESR, le principal appareil de cette production, l’État délaisse la priorité accordée à la montée de la qualification de la population active, au profit d’un #pilotage_par_la_recherche. Ce faisant, il radicalise des dualités anciennes entre système éducatif pour l’élite et pour la masse, entre recherche utile à l’industrie et recherche vue comme activité intellectuelle (cf. la place des SHS), etc.

    La croissance des effectifs étudiants sur une période assez longue, s’est faite à moyens constants avec des effectifs titulaires qui ne permettent pas de maintenir la qualité du travail de formation (cf. figure 2). L’existence de gisements de productivité supposés, à savoir d’une partie de temps de travail des enseignants-chercheurs inutilisé, a conduit à une pénurie de poste et à une recomposition de l’emploi : alourdissement des tâches des personnels statutaires pour un #temps_de_travail identique et développement de l’#emploi_hors_statut. Carpentier & Picard ont récemment montré, qu’en France comme ailleurs, le recours au #précariat s’est généralisé, participant par ce fait même à l’effritement du #corps_professionnel qui n’a plus été à même d’assurer ni sa reproduction ni ses missions de formation.

    C’est le résultat de l’évolution longue. L’#enseignement est la part délaissée, et les étudiants et étudiantes ne sont plus au cœur des #politiques_universitaires : ni par la #dotation accordée par étudiant, ni pour ce qui structure la carrière des universitaires (rythmée par des enjeux de recherche), et encore moins pour les dotations complémentaires (associées à une excellence en recherche). Ce mouvement se met toutefois en œuvre en dehors de la formation des élites qui passent en France majoritairement par les grandes écoles (Charle et Soulié, 2015). Dès lors que les étudiants cessaient d’être le principe organisateur de l’ESR dans les universités, la #recherche pouvait s’y substituer. Cela intervient avec une nouvelle convention de qualité de la recherche. La mise en œuvre de ce principe concurrentiel, initialement limité au financement sur projets, a été élargie à la régulation des carrières.

    La connaissance, et de façon concrète le niveau de diplôme des salariés, est devenu une clé de la compétitivité, voire, pour les gouvernements, de la perspective de croissance. Alors que le travail de recherche tend à devenir une compétence générale du travail qualifié, son rôle croissant dans le régime d’accumulation pousse à la transformation du rapport social de travail de l’ESR.

    C’est à partir du système d’#innovation, en ce que la recherche permet de produire des actifs de production, que l’appariement entre recherche et profit participe d’une dynamique nouvelle du régime d’accumulation.

    Cette dynamique est pilotée par l’évolution jointe du #capitalisme_financiarisé (primauté du profit actionnarial sur le profit industriel) et du capitalisme intensif en connaissance. Les profits futurs des entreprises, incertains, sont liés d’une part aux investissements présents, dont le coût élevé repose sur la financiarisation tout en l’accélérant, et d’autre part au travail de recherche, dont le contrôle échappe au régime historique de croissance de la productivité. La diffusion des compétences du travail de recherche, avec la montée des qualifications des travailleurs, et l’accumulation de connaissances sur lequel il repose, deviennent primordiaux, faisant surgir la transformation du contenu du travail par l’élévation de sa qualité dans une division du travail qui vise pourtant à l’économiser. Cela engendre une forte tension sur la production des savoirs et les systèmes de transmission du savoir qui les traduisent en connaissances et compétences.

    Le travail de recherche devenant une compétence stratégique du travail dans tous les secteurs d’activité, les questions posées au secteur de recherche en termes de mesure de l’#efficacité deviennent des questions générales. L’enjeu en est l’adoption d’une norme d’évaluation que les marchés soient capables de faire circuler parmi les secteurs et les activités consommatrices de connaissances.

    Un régime face à ses contradictions

    Cette transformation de la recherche en un secteur, arrimé au régime d’accumulation, suppose un nouveau compromis institutionnalisé. Mais, menée par une politique néolibérale, elle se heurte à plusieurs contradictions majeures qui détruisent les conditions de sa stabilisation sans que les principes d’une régulation propre ne parviennent à émerger.

    Quand la normalisation du travail de recherche dévalorise l’activité et les personnels

    Durant la longue période de régulation administrée, le travail de recherche a associé le principe de #liberté_académique à l’emploi à statut. L’accomplissement de ce travail a été considéré comme incompatible avec une prise en charge par le marché, ce dernier n’étant pas estimé en capacité de former un signal prix sur les services attachés à ce type de travail. Ainsi, la production de connaissance est un travail entre pairs, rattachés à des collectifs productifs. Son caractère incertain, la possibilité de l’erreur sont inscrits dans le statut ainsi que la définition de la mission (produire des connaissances pour la société, même si son accaparement privé par la bourgeoisie est structurel). La qualité de l’emploi, notamment via les statuts, a été la clé de la #régulation_professionnelle. Avec la #mise_en_concurrence_généralisée (entre établissements, entre laboratoires, entre Universités et grandes écoles, entre les personnels), le compromis productif entre les individus et les collectifs de travail est rompu, car la concurrence fait émerger la figure du #chercheur_entrepreneur, concerné par la #rentabilisation des résultats de sa recherche, via la #valorisation sous forme de #propriété_intellectuelle, voire la création de #start-up devenu objectifs de nombre d’université et du CNRS.

    La réponse publique à la #dévalorisation_salariale évoquée plus haut, passe par une construction différenciée de la #rémunération, qui rompt le compromis incarné par les emplois à statut. Le gel des rémunérations s’accompagne d’une individualisation croissante des salaires, l’accès aux ressources étant largement subordonné à l’adhésion aux dispositifs de mise en concurrence. La grille des rémunérations statutaires perd ainsi progressivement tout pouvoir organisationnel du travail. Le rétrécissement de la possibilité de travailler hors financements sur projet est indissociable du recours à du #travail_précaire. La profession a été dépossédée de sa capacité à défendre son statut et l’évolution des rémunérations, elle est inopérante à faire face à son dépècement par le bloc minoritaire.

    La contradiction intervient avec les dispositifs de concurrence qui tirent les instruments de la régulation professionnelle vers une mise aux normes marchandes pour une partie de la communauté par une autre. Ce mouvement est rendu possible par le décrochage de la rémunération du travail : le niveau de rémunération d’entrée dans la carrière pour les maîtres de conférences est ainsi passé de 2,4 SMIC dans les années 1980 à 1,24 aujourd’hui.

    Là où le statut exprimait l’impossibilité d’attacher une valeur au travail de recherche hors reconnaissance collective, il tend à devenir un travail individualisable dont le prix sélectionne les usages et les contenus. Cette transformation du travail affecte durablement ce que produit l’université.

    Produire de l’innovation et non de la connaissance comme communs

    Durant la période administrée, c’est sous l’égide de la profession que la recherche était conduite. Définissant la valeur de la connaissance, l’action collective des personnels, ratifiée par l’action publique, pose le caractère non rival de l’activité. La possibilité pour un résultat de recherche d’être utilisé par d’autres sans coût de production supplémentaire était un gage d’efficacité. Les passerelles entre recherche et innovation étaient nombreuses, accordant des droits d’exploitation, notamment à l’industrie. Dans ce cadre, le lien recherche-profit ou recherche-utilité économique, sans être ignoré, ne primait pas. Ainsi, la communauté professionnelle et les conditions de sa mise au travail correspondait à la nature de ce qui était alors produit, à savoir les connaissances comme commun. Le financement public de la recherche concordait alors avec la nature non rivale et l’incertitude radicale de (l’utilité de) ce qui est produit.

    La connaissance étant devenue un actif stratégique, sa valorisation par le marché s’est imposée comme instrument d’orientation de la recherche. Finalement dans un régime d’apparence libérale, la conduite politique est forte, c’est d’ailleurs propre d’un régime néolibéral tel que décrit notamment par Amable & Palombarini (2018). Les #appels_à_projet sélectionnent les recherches susceptibles de #valorisation_économique. Là où la #publication fait circuler les connaissances et valide le caractère non rival du produit, les classements des publications ont pour objet de trier les résultats. La priorité donnée à la protection du résultat par la propriété intellectuelle achève le processus de signalement de la bonne recherche, rompant son caractère non rival. La #rivalité exacerbe l’effectivité de l’exclusion par les prix, dont le niveau est en rapport avec les profits anticipés.

    Dans ce contexte, le positionnement des entreprises au plus près des chercheurs publics conduit à une adaptation de l’appareil de production de l’ESR, en créant des lieux (#incubateurs) qui établissent et affinent l’appariement recherche / entreprise et la #transférabilité à la #valorisation_marchande. La hiérarchisation des domaines de recherche, des communautés entre elles et en leur sein est alors inévitable. Dans ce processus, le #financement_public, qui continue d’endosser les coûts irrécouvrables de l’incertitude, opère comme un instrument de sélection et d’orientation qui autorise la mise sous contrôle de la sphère publique. L’ESR est ainsi mobilisée par l’accumulation, en voyant son autonomie (sa capacité à se réguler, à orienter les recherches) se réduire. L’incitation à la propriété intellectuelle sur les résultats de la recherche à des fins de mise en marché est un dispositif qui assure cet arrimage à l’accumulation.

    Le caractère appropriable de la recherche, devenant essentiel pour la légitimation de l’activité, internalise une forme de consentement de la communauté à la perte du contrôle des connaissances scientifiques, forme de garantie de sa circulation. Cette rupture de la non-rivalité constitue un coût collectif pour la société que les communautés scientifiques ne parviennent pas à rendre visible. De la même manière, le partage des connaissances comme principe d’efficacité par les externalités positives qu’il génère n’est pas perçu comme un principe alternatif d’efficacité. Chemin faisant, une recherche à caractère universel, régulée par des communautés, disparait au profit d’un appareil sous doté, orienté vers une utilité de court terme, relayé par la puissance publique elle-même.

    Un bloc hégémonique réduit, contre la collégialité universitaire

    En tant que mode de gouvernance, la collégialité universitaire a garanti la participation, et de fait la mobilisation des personnels, car ce n’est pas la stimulation des rémunérations qui a produit l’#engagement. Les collectifs de travail s’étaient dotés d’objectifs communs et s’étaient accordés sur la #transmission_des_savoirs et les critères de la #validation_scientifique. La #collégialité_universitaire en lien à la définition des savoirs légitimes a été la clé de la gouvernance publique. Il est indispensable de rappeler la continuité régulatrice entre liberté académique et organisation professionnelle qui rend possible le travail de recherche et en même temps le contrôle des usages de ses produits.

    Alors que l’université doit faire face à une masse d’étudiants, elle est évaluée et ses dotations sont accordées sur la base d’une activité de recherche, ce qui produit une contradiction majeure qui affecte les universités, mais pas toutes. Il s’effectue un processus de #différenciation_territoriale, avec une masse d’établissements en souffrance et un petit nombre qui a été retenu pour former l’élite. Les travaux de géographes sur les #inégalités_territoriales montrent la très forte concentration sur quelques pôles laissant des déserts en matière de recherche. Ainsi se renforce une dualité entre des universités portées vers des stratégies d’#élite et d’autres conduites à accepter une #secondarisation_du_supérieur. Une forme de hiatus entre les besoins technologiques et scientifiques massifs et le #décrochage_éducatif commence à être diagnostiquée.

    La sectorisation de l’ESR, et le pouvoir pris par un bloc hégémonique réduit auquel participent certaines universités dans l’espoir de ne pas être reléguées, ont procédé par l’appropriation de prérogatives de plus en plus larges sur les carrières, sur la valorisation de la recherche et la propriété intellectuelle, de ce qui était un commun de la recherche. En cela, les dispositifs d’excellence ont joué un rôle marquant d’affectation de moyens par une partie étroite de la profession. De cette manière, ce bloc capte des prébendes, assoit son pouvoir par la formation des normes concurrentielles qu’il contrôle et développe un rôle asymétrique sur les carrières par son rôle dominant dans l’affectation de reconnaissance professionnelle individualisée, en contournant les instances professionnelles. Il y a là création de nouveaux périmètres par la norme, et la profession dans son ensemble n’a plus grande prise, elle est mise à distance des critères qui servent à son nouveau fonctionnement et à la mesure de la performance.

    Les dispositifs mis en place au nom de l’#excellence_scientifique sont des instruments pour ceux qui peuvent s’en emparer et définissant les critères de sélection selon leur représentation, exercent une domination concurrentielle en sélectionnant les élites futures. Il est alors essentiel d’intégrer les Clubs qui en seront issus. Il y a là une #sociologie_des_élites à préciser sur la construction d’#UDICE, club des 10 universités dites d’excellence. L’évaluation de la performance détermine gagnants et perdants, via des labels, qui couronnent des processus de sélection, et assoit le pouvoir oligopolistique et les élites qui l’ont porté, souvent contre la masse de la profession (Musselin, 2017).

    Le jeu des acteurs dominants, en lien étroit avec le pouvoir politique qui les reconnait et les renforce dans cette position, au moyen d’instruments de #rationalisation de l’allocation de moyens pénuriques permet de définir un nouvel espace pour ceux-ci, ségrégué du reste de l’ESR, démarche qui est justifié par son arrimage au régime d’accumulation. Ce processus s’achève avec une forme de séparatisme du nouveau bloc hégémonique composé par ces managers de l’ESR, composante minoritaire qui correspond d’une certaine mesure au bloc bourgeois. Celles- et ceux-là même qui applaudissent le discours présidentiel annonçant la révolution dont un petit fragment tirera du feu peu de marrons, mais qui seront sans doute pour eux très lucratifs. Toutefois le scénario ainsi décrit dans sa tendance contradictoire pour ne pas dire délétère ne doit pas faire oublier que les communautés scientifiques perdurent, même si elles souffrent. La trajectoire choisie de sectorisation déstabilise l’ESR sans ouvrir d’espace pour un compromis ni avec les personnels ni pour la formation. En l’état, les conditions d’émergence d’un nouveau régime pour l’ESR, reliant son fonctionnement et sa visée pour la société ne sont pas réunies, en particulier parce que la #rupture se fait contre la profession et que c’est pourtant elle qui reste au cœur de la production.

    https://laviedesidees.fr/Universite-service-public-ou-secteur-productif
    #ESR #facs #souffrance

  • Ils sont gentils à Marianne...

    Quand le #Conseil_Constitutionnel ne dit rien, il est à la botte.

    Quand il s’exprime, il est vilain, #pabo. :-D :-D :-D

    #Loi_immigration : « Neuf juges peuvent donc balayer d’un revers de manche un énorme travail parlementaire »

    Ça s’appelle la #séparation_des_pouvoirs, et c’est pas trop mal comme ça... :-D :-D :-D

    #politique #société #France #loi #régulation #régularité #seenthis #vangauguin

    https://www.marianne.net/agora/tribunes-libres/loi-immigration-neuf-juges-peuvent-donc-balayer-dun-revers-de-manche-un-en

  • La #CSNP invite à mieux anticiper l’impact de l’#IA sur la société
    https://www.banquedesterritoires.fr/la-csnp-invite-mieux-anticiper-limpact-de-lia-sur-la-societe

    Après un premier avis en 2020 sur l’#intelligence_artificielle (IA) centré sur sa dimension économique, la commission supérieure du numérique et des postes (CSNP) revient sur le sujet dans son avis(https://csnp.fr/wp-content/uploads/2024/01/AVIS-N%C2%B02024-01-du-17-JANVIER-2024-pour-mieux-encadrer-lusage-de-lintellige) n°2024-01 du 17 janvier 2024. Les parlementaires insistent plus particulièrement sur les enjeux sociétaux de l’IA, le tsunami de l’#IA_générative étant passé par là. Signé de Mireille Clapot, députée de la Drôme et présidente de la CSNP, l’avis souligne l’urgence à réguler l’IA tout en invitant les pouvoirs publics à amortir ses effets sociétaux et à contribuer à l’émergence d’une IA frugale.

    #régulation #formation #administrations_publiques

  • EU lawmakers bag late night deal on ‘global first’ AI rules | TechCrunch
    https://techcrunch.com/2023/12/08/eu-ai-act-political-deal

    Tout l’article est très intéressant.

    Full details of what’s been agreed won’t be entirely confirmed until a final text is compiled and made public, which may take some weeks. But a press release put out by the European Parliament confirms the deal reached with the Council includes a total prohibition on the use of AI for:

    biometric categorisation systems that use sensitive characteristics (e.g. political, religious, philosophical beliefs, sexual orientation, race);
    untargeted scraping of facial images from the internet or CCTV footage to create facial recognition databases;
    emotion recognition in the workplace and educational institutions;
    social scoring based on social behaviour or personal characteristics;
    AI systems that manipulate human behaviour to circumvent their free will;
    AI used to exploit the vulnerabilities of people (due to their age, disability, social or economic situation).

    The use of remote biometric identification technology in public places by law enforcement has not been completely banned — but the parliament said negotiators had agreed on a series of safeguards and narrow exceptions to limit use of technologies such as facial recognition. This includes a requirement for prior judicial authorisation — and with uses limited to a “strictly defined” lists of crime.

    Civil society groups have reacted sceptically — raising concerns the agreed limitations on state agencies’ use of biometric identification technologies will not go far enough to safeguard human rights. Digital rights group EDRi, which was among those pushing for a full ban on remote biometrics, said that whilst the deal contains “some limited gains for human rights”, it looks like “a shell of the AI law Europe really needs”.

    There was also agreement on a “two-tier” system of guardrails to be applied to “general” AI systems, such as the so-called foundational models underpinning the viral boom in generative AI applications like ChatGPT.

    As we reported earlier, the deal reached on foundational models/general purpose AIs (GPAIs) includes some transparency requirements for what co-legislators referred to as “low tier” AIs — meaning model makers must draw up technical documentation and produce (and publish) detailed summaries about the content used for training in order to support compliance with EU copyright law. For “high-impact” GPAIs (defined as the cumulative amount of compute used for their training measured in floating point operations is greater than 10^25) with so-called “systemic risk” there are more stringent obligations.

    “If these models meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency,” the parliament wrote. “MEPs also insisted that, until harmonised EU standards are published, GPAIs with systemic risk may rely on codes of practice to comply with the regulation.”

    The Commission has been working with industry on a stop-gap AI Pact for some months — and it confirmed today this is intended to plug the practice gap until the AI Act comes into force.

    While foundational models/GPAIs that have been commercialized face regulation under the Act, R&D is not intended to be in scope of the law — and fully open sourced models will have lighter regulatory requirements than closed source, per today’s pronouncements.

    The package agreed also promotes regulatory sandboxes and real-world-testing being established by national authorities to support startups and SMEs to develop and train AIs before placement on the market.

    #Intelligence_artificielle #AIAct #Europe #Régulation

  • Le numérique tient-il plus d’une barrière, d’une possible nouvelle frontière dans la mondialisation ou au contraire, est-elle l’interface, le liant d’une nouvelle géopolitique dont les frontières se recomposeraient en dehors de toute géographie ? C’est la question que pose Ophélie Coelho dans son livre « Géopolitique du numérique ». Pour elle, le numérique est une couche supplémentaire de puissance et de rivalités, entre Etats, mais aussi entre Etats et multinationales. Il est à la fois l’outil d’affrontement des différents blocs du monde contemporain et le coeur de la domination.

    La grande question de cette géopolitique, c’est surtout la montée d’un pouvoir privé qui vient renforcer plus que perturber les équilibres géopolitiques en cours. Le numérique nous confronte à une puissance impériale inédite qui fait émerger un nouveau pouvoir au sein des blocs géopolitiques, un pouvoir particulièrement hégémonique et monopolistique... Une forme de privatisation du pouvoir, un colonialisme technique qui déstabilise la démocratie libérale elle-même, comme s’en inquiète Anu Bradford dans son livre, « Digital Empires ». Et qui pose la question de la régulation de ce qui apparaît comme un nouvel impérialisme. #numérique #géopolitique #régulation #impérialisme

    https://hubertguillaud.wordpress.com/2023/10/30/de-limperialisme-numerique

  • Data & Society — Democratizing AI: Principles for Meaningful Public Participation
    https://datasociety.net/library/democratizing-ai-principles-for-meaningful-public-participation

    As AI is deployed in ways that dramatically shape people’s lives and opportunities, the public has little input into its use. In light of this, there are increasing calls to integrate democratic and human-centered values into AI through public participation. 
    Public participation enables the people who are most likely to be affected by a given system to have influence into that system’s design and deployment, including decision-making power. Evidence from multiple fields indicates that, when done right, public participation helps to avert harmful impacts of new projects. Input from the public can result in concrete improvements to a program, or in the rejection of proposals that community members did not support. It brings a range of social and cultural values into decision-making above and beyond narrow technical parameters. Public participation adds legitimacy to decisions because people trust processes they understand and influence. It improves accountability by adding layers of scrutiny and discussion between the public and decision-makers. 
    Yet public participation is difficult to do well, and its mechanisms can backfire if they are not carefully designed. Fortunately, policymakers do not need to design public participation for AI from scratch. Building on a comprehensive review of evidence from public participation efforts in policy domains such as anti-poverty programs and environmental policy, in Democratizing AI: Principles for Meaningful Public Participation Michele Gilman summarizes evidence-based recommendations for better structuring public participation processes for AI, and underscores the urgency of enacting them.

    #Intelligence_artificielle #Régulation #Participation_citoyenne

  • Blueprint for an AI Bill of Rights | OSTP | The White House
    https://www.whitehouse.gov/ostp/ai-bill-of-rights

    Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent.

    These outcomes are deeply harmful—but they are not inevitable. Automated systems have brought about extraordinary benefits, from technology that helps farmers grow food more efficiently and computers that predict storm paths, to algorithms that can identify diseases in patients. These tools now drive important decisions across sectors, while data is helping to revolutionize global industries. Fueled by the power of American innovation, these tools hold the potential to redefine every part of our society and make life better for everyone.

    This important progress must not come at the price of civil rights or democratic values, foundational American principles that President Biden has affirmed as a cornerstone of his Administration. On his first day in office, the President ordered the full Federal government to work to root out inequity, embed fairness in decision-making processes, and affirmatively advance civil rights, equal opportunity, and racial justice in America.[i] The President has spoken forcefully about the urgent challenges posed to democracy today and has regularly called on people of conscience to act to preserve civil rights—including the right to privacy, which he has called “the basis for so many more rights that we have come to take for granted that are ingrained in the fabric of this country.”[ii]

    To advance President Biden’s vision, the White House Office of Science and Technology Policy has identified five principles that should guide the design, use, and deployment of automated systems to protect the American public in the age of artificial intelligence. The Blueprint for an AI Bill of Rights is a guide for a society that protects all people from these threats—and uses technologies in ways that reinforce our highest values. Responding to the experiences of the American public, and informed by insights from researchers, technologists, advocates, journalists, and policymakers, this framework is accompanied by From Principles to Practice—a handbook for anyone seeking to incorporate these protections into policy and practice, including detailed steps toward actualizing these principles in the technological design process. These principles help provide guidance whenever automated systems can meaningfully impact the public’s rights, opportunities, or access to critical needs.

    #Intelligence_artificielle #Maison_Blanche #AI_Bill_of_Rights #Régulation

  • Elon Musk, Sam Altman and Mark Zuckerberg Discuss AI with Lawmakers in Washington - The New York Times
    https://www.nytimes.com/2023/09/13/technology/silicon-valley-ai-washington-schumer.html?nl=todaysheadlines&emc=edit_th_20

    Elon Musk, Sam Altman, Mark Zuckerberg, Sundar Pichai and others discussed artificial intelligence with lawmakers, as tech companies strive to influence potential regulations.

    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.Credit...Haiyun Jiang for The New York Times
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Cecilia Kang

    By Cecilia Kang

    Reporting from Washington
    Sept. 13, 2023

    Elon Musk warned of civilizational risks posed by artificial intelligence. Sundar Pichai of Google highlighted the technology’s potential to solve health and energy problems. And Mark Zuckerberg of Meta stressed the importance of open and transparent A.I. systems.

    The tech titans held forth on Wednesday in a three-hour meeting with lawmakers in Washington about A.I. and future regulations. The gathering, known as the A.I. Insight Forum, was part of a crash course for Congress on the technology and organized by the Senate leader, Chuck Schumer, Democrat of New York.

    The meeting — also attended by Bill Gates, a founder of Microsoft; Sam Altman of OpenAI; Satya Nadella of Microsoft; and Jensen Huang of Nvidia — was a rare congregation of more than a dozen top tech executives in the same room. It amounted to one of the industry’s most proactive shows of force in the nation’s capital as companies race to be at the forefront of A.I. and to be seen to influence its direction.

    It was unclear if any concrete proposals would result from the meeting, the first of a series of such gatherings. But the tech executives took the opportunity to push for their agendas.

    Mr. Karp of Palantir said he was able to deliver his message that the government should support A.I. in the defense sector, which includes his company’s main customers. “There was striking unanimity that America be the leader on A.I.,” he said in an interview.

    Most of the executives agreed on the need for regulating A.I., which has been under scrutiny for its transformative and risky effects.

    But there was still disagreement, attendees said. Mr. Zuckerberg highlighted open-source research and development of A.I., which means that the source code of the underlying A.I. systems are available to the public.

    “Open source democratizes access to these tools, and that helps level the playing field and foster innovation for people and businesses,” he said.

    Others, like Jack Clark of the A.I. start-up Anthropic and Mr. Gates, raised concerns that open-source A.I. could lead to security risks, attendees said. Anthropic, Google and OpenAI have said open source can allow outsiders to get past safety guardrails and spread misinformation and other toxic material.

    Mr. Musk, who has called for a moratorium on the development of some A.I. systems even as he has pushed forward with his own A.I. initiatives, was among the most vocal about the risks. He painted an existential crisis posed by the technology.

    #Intelligence_artificielle #Régulation #Asilomar

  • #Propriété_collective des #terres : « Des espaces de résistance face à l’agriculture industrielle et capitaliste »

    basta ! : Dans le secteur agricole, on compte seulement une installation pour deux à trois cessations d’activité, alors qu’un agriculteur sur quatre doit partir à la retraite d’ici 2030. L’accès à la terre est-il le frein principal à l’activité agricole en France ?

    Tanguy Martin : L’accès à la terre est clairement un frein, économique d’abord. La terre, selon les régions, peut coûter assez cher. S’y ajoutent les coûts des bâtiments, du cheptel, des machines, dans un contexte où les fermes n’ont cessé de grandir en taille depuis la fin de la Seconde Guerre mondiale.

    Il y a aussi un principe de défiance : c’est plus facile de vendre ses terres, ou de les louer à son voisin qu’on connaît depuis très longtemps, qu’à quelqu’un qu’on ne connaît pas, qui peut vouloir faire différemment, non issu du territoire... Or, 60 % des gens qui veulent s’installer aujourd’hui ne sont pas issus du milieu agricole. Les freins administratifs se combinent à ce parcours du combattant.

    Aujourd’hui l’accès à la terre se fait par le marché : les terres sont allouées aux gens capables de rentabiliser une ressource, et pas forcément aux gens capables de nourrir un territoire ou de préserver un environnement.

    À partir de quel moment la terre agricole est-elle devenue une marchandise ?

    Jusqu’à la fin de la Seconde Guerre mondiale, la terre est restée un bien de prestige et de pouvoir à travers lequel on maîtrise la subsistance de la population. Mais après 1945, l’agriculture est entrée dans le capitalisme : on commence à faire plus de profit avec la terre et la production de nourriture, voire à spéculer sur le prix de la terre.

    La terre est même depuis devenue un actif financier. Aujourd’hui, les sociétés dites à capitaux ouverts (financiarisées), dont le contrôle peut être pris par des non-agriculteurs, ont fait main basse sur 14 % de la surface agricole utile française. C’est plus d’une ferme sur dix en France [1]. Le phénomène a doublé en 20 ans !

    Peut-on vraiment parler de spéculation sur les terres en France alors même que le prix stagne en moyenne à 6000 euros par hectare depuis plusieurs années ? Il est quand même de 90 000 euros par hectare aux Pays-Bas !

    Depuis quelques années, le prix de la terre stagne et on pourrait en conclure qu’il n’y a pas de spéculation. En réalité, le prix de la terre a globalement augmenté en France sur les 20 dernières années.

    Actuellement, ce prix augmente dans certaines régions et baisse dans d’autres. Les endroits où l’on peut spéculer sur la terre sont globalement ceux où l’agriculture s’est industrialisée : les zones céréalières dans le centre de la France, de betteraves en Picardie, de maïs dans le Sud-Ouest... Là, le prix de la terre continue à augmenter.

    En revanche, il y a des endroits en déprise, notamment les zones d’élevage comme le Limousin, où le prix de la terre peut baisser. Les prix augmentent aussi à proximité des villes et des zones touristiques, où la terre risque de devenir constructible.

    En France, ce sont les Sociétés d’aménagement foncier et d’établissement rural (Safer) qui sont en charge de réguler le marché des ventes des terres agricoles. Elles sont très critiquées. Que faut-il faire de ces organisations ?

    Les Safer ont participé à limiter les inégalités d’accès à la terre et un prix de la terre relativement bas en France. C’est vrai, même s’il y a d’autres explications aussi, comme la plus faible valeur ajoutée produite par hectare en France.

    Pour autant, les Safer doivent encore évoluer pour pouvoir répondre aux enjeux alimentaires et agricoles du 21e siècle, il faut arriver à démocratiser leur gouvernance. Celles-ci restent aujourd’hui très liées aux décisions du syndicalisme majoritaire (de la FNSEA, ndlr). Les Safer doivent aussi devenir plus transparentes. Actuellement, les réunions de décision se tiennent à huis clos : c’est censé protéger les gens qui prennent les décisions pour qu’ils soient éloignés de certaines pressions, mais cela crée une opacité très délétère pour l’institution.

    Un autre élément à revoir, c’est la façon dont on fixe les objectifs politiques des Safer. Ces dernières, quand elles achètent une terre, doivent la revendre à la personne qui répond aux objectifs politiques qui sont notamment fixés dans des documents nommés « schémas directeurs régionaux des exploitations agricoles ».

    Ces documents, écrits par l’État et validés par arrêté préfectoral, décrivent quel type d’agriculture vont viser les Safer et d’autres instances de régulation foncière. Or, ces documents, du fait que le syndicat majoritaire est largement consulté, défendent plutôt la prolongation de l’agriculture vers son industrialisation. Il y a donc un enjeu à ce que ces documents soient écrits pour défendre une agriculture du 21e siècle qui défend l’agroécologie, et des paysannes et paysans nombreux sur les territoires. À ces conditions-là, il n’y a pas de raison de vouloir se passer des Safer.

    Le fait que nous ayons un système qui alloue la terre, non pas en fonction de l’offre et de la demande, mais en vertu d’un projet politique censé répondre à l’intérêt général, est un trésor inestimable en France qu’il faut absolument garder.

    En creux de votre ouvrage se pose la question du rapport à la propriété. Est-il possible de dépasser le modèle du paysan propriétaire ?

    Sur le principe, rien ne justifie le fait qu’à un moment, une personne ait pu dire « cette terre m’appartient ». La terre étant à la fois un lieu d’accueil du vivant et le lieu où l’on produit la nourriture, on peut estimer que la propriété de la terre doit être abolie. Sauf que, dans une société très attachée à la propriété privée, cela paraît utopique.

    Prenons donc le problème d’une autre façon, et voyons ce qu’on peut déjà faire à court terme. Il faut avoir en tête que les agriculteurs ne sont pas majoritairement propriétaires des terres qu’ils travaillent : 60 % de cette surface est louée dans le cadre du fermage. Il y a même des paysan·nes qui décident parfois de ne pas acheter la terre et préfèrent la louer pour éviter de s’endetter.

    D’autre part, on dispose d’une régulation foncière selon laquelle la terre n’est pas une marchandise comme les autres et ne doit pas être uniquement dirigée par le marché. Ces mécanismes juridiques permettent à l’État, aux collectivités locales et aux syndicats agricoles, de définir ensemble qui va accéder à la terre indépendamment du fait que ces personnes soient riches ou pas.

    On a là un embryon qui pourrait faire imaginer un droit de l’accès à la terre en France institué en commun. Il faut renforcer et orienter ces mécanismes – qui ont plein d’écueils ! – vers des enjeux d’alimentation, d’emploi, d’environnement... Chercher à démocratiser la question de l’accès à la terre et « le gouvernement des terres », c’est à la fois une capacité à se prémunir des effets mortifères du capitalisme, et cela permet de penser comment on pourrait gérer les terres autrement.

    Le capitalisme n’est pas une fatalité : il y a d’autres manières d’être au monde, de produire de l’alimentation, de vivre, de sortir d’un monde où le but n’est que la recherche du profit. C’est comme quand on milite pour la sécurité sociale de l’alimentation : la Sécurité sociale en 1946 n’a pas renversé le capitalisme, mais elle a créé des espaces de répits face au capitalisme, extrêmement importants pour que les gens vivent bien et envisagent de transformer la société.

    Le livre dresse un panorama des organisations qui travaillent au rachat des terres pour les mettre à disposition de paysan·nes répondant à des critères socio-environnementaux, avec des règles transparentes d’attribution de l’accès au foncier. Les surfaces acquises restent toutefois modestes. Peut-on uniquement compter sur ce type d’initiatives ?

    Les gens qui s’intéressent à la terre aujourd’hui ont bien compris qu’on n’allait pas abolir la propriété privée demain. Ils ont aussi compris que s’ils voulaient expérimenter d’autres manières de faire de l’agriculture et de l’alimentation, il fallait accéder à la propriété des terres.

    L’idée de la propriété collective, ce n’est pas l’abolition de la propriété privée, mais que des gens se mettent ensemble pour acheter de la terre. C’est ce que fait Terre de Liens en louant ensuite la terre à des paysan·nes qui mettent en œuvre des projets répondant aux enjeux de société, d’emploi, d’environnement, d’entretien du territoire... Mais c’est aussi ce que font d’autres structures de propriété foncière – la Société civile des terres du Larzac, la Terre en commun sur la Zad de Notre-Dame des Landes, Lurzaindia dans le Pays basque, la foncière Antidote, et bien d’autres.

    Tout un tas de gens essaient d’acheter des terres pour en faire des espaces de résistance face à l’agriculture industrielle et capitaliste. Cela permet d’imaginer d’autres rapports à la propriété. Ce sont des lieux d’expérimentation très importants pour susciter de nouveaux imaginaires, apprendre à faire autrement, créer de nouvelles manières d’être au monde.

    Le problème de ces lieux-là, c’est qu’ils ne peuvent pas permettre un changement d’échelle. Cela ne peut pas être la solution de sortie des terres du capitalisme. Comme elles n’abolissent pas la propriété, s’il fallait racheter toutes les terres, cela coûterait des centaines de milliards d’euros.

    Par ailleurs, ces terres ne sont pas à vendre à court terme – une terre se vend en moyenne tous les 75 ans. D’où la nécessité de faire à la fois des expérimentations de propriété collective, tout en ravivant la question de la régulation foncière pour sortir l’agriculture du capitalisme.

    En quoi la lutte de Notre-Dame des Landes, victorieuse en 2018, a reconfiguré les luttes, notamment anticapitalistes, autour des terres ?

    La question agricole et foncière, en France et même en Europe, était très peu investie par les milieux anticapitalistes. L’activisme des gens qui vont s’installer dans la Zad, les coopérations menées avec des syndicats agricoles comme la Confédération paysanne, ont – non sans débats houleux et conflits internes – mené à une lutte assez exemplaire sur un territoire.

    La répression peut être énorme, mais la capacité de résistance aussi. Cette lutte a produit des façons de faire sur le territoire – en termes d’habitat, d’agriculture collective, de vivre ensemble – inspirantes pour toute une génération militant contre le néolibéralisme et le capitalisme. Beaucoup de milieux politiques aujourd’hui parlent de subsistance, d’alimentation, de terres.

    Notre-Dame des Landes marque aussi le fait qu’avec de moins en moins d’agriculteurs dans la société (2,5 % des gens sont des travailleurs de la terre dont 1,9 % sont des agriculteurs au sens légal), les enjeux agricoles ne peuvent être uniquement du ressort des luttes paysannes. La centralité de ces luttes doit être partagée avec d’autres types d’acteurs politiques, notamment des gens qui habitent le territoire sans être forcément paysans.

    La dynamique des Soulèvements de la Terre est-elle un prolongement de Notre-Dame des Landes ?

    En effet, il me semble que Notre-Dame-des-Landes est une inspiration forte de la pensée qui s’agrège autour des Soulèvements, mouvement riche de sa pluralité. Les Soulèvements montrent que les espoirs nés de l’expérimentation à Notre-Dame-des-Landes sont possibles partout et qu’il va falloir faire différemment dans tous les territoires – chaque endroit ayant ses spécificités.

    Les questions de rapport à la terre ont aussi émergé dans l’espace politique des années 1990, avec les luttes au Chiapas, au Mexique, qui continuent d’inspirer les milieux politiques en Europe et en France. Cette circulation des imaginaires de luttes permet de penser des mondes différemment. Les Soulèvements arrivent à fédérer de manière assez importante et repolitisent très clairement ces questions de la terre. Ils portent ces questions sur tous les territoires qui ont envie de s’en emparer en disant : « C’est possible aussi chez vous ».

    Peut-on sortir l’agriculture du capitalisme ? Pour Tanguy Martin, auteur de Cultiver les communs, il faut combiner les expérimentations de propriété collective tout en s’attachant à la régulation foncière.

    https://basta.media/Propriete-collective-des-terres-des-espaces-de-resistance-face-a-l-agricult
    #agriculture #résistance #capitalisme #accès_à_la_terre #terre #financiarisation #spéculation #Sociétés_d’aménagement_foncier_et-d’établissement_rural (#Safer)

  • L’arrivée de #meta sur le fédivers est-elle une bonne nouvelle ?
    https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle

    Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…

    #Censure #Données_personnelles #Surveillance #facebook #fédiverse #interop #mastodon #régulation

  • [A Question Of Listening] # 029 - Le metal n’est pas si heavy qu’on croit
    https://www.radiopanik.org/emissions/a-question-of-listening/029-le-metal-nest-pas-si-heavy-quon-croit

    Dans le deuxième épisode de A Question Of Listening, nous avons vu que la #musique, qui n’a pas de valeur adaptative immédiate, s’écoute pour les émotions qu’elle procure, pour un plaisir, déterminé par des éléments non musicaux (la subjectivité de l’auditeur) mais aussi par la structure expressive de la pièce elle-même : il varie, ce plaisir, d’une écoute à l’autre (en fonction des circonstances, de l’humeur …) mais présente une certaine régularité – qui nous amène d’ailleurs souvent (en tant qu’individu ou en tant que groupe) à choisir une musique en fonction de notre état psychologique ou des caractéristiques du moment. Plus généralement, les émotions les plus souvent rencontrées en écoutant de la musique sont la sérénité, la gaieté, la tristesse et la colère (ou la peur) et trois dimensions psychologiques (...)

    #psychologie_cognitive #émotion #style_musical #régulation #musique,psychologie_cognitive,émotion,style_musical,régulation
    https://www.radiopanik.org/media/sounds/a-question-of-listening/029-le-metal-nest-pas-si-heavy-quon-croit_16183__1.mp3

  • Give Every AI a Soul—or Else | WIRED
    https://www.wired.com/story/give-every-ai-a-soul-or-else

    Quand on demande aux auteurs de science fiction d’imaginer des formes de régulation, on tombe parfois sur des idées étranges... qui viennent certainement de la conception d’IA comme des entités “human-like”, non pas comme chaque humain (sentient et ayant un corps - quoique ce dernier point est évoqué pour les IA aussi) mais comme les civilisations d’humains qui s’auto-contrôlent.

    Why this sudden wave of concern? Amid the toppling of many clichéd assumptions, we’ve learned that so-called Turing tests are irrelevant, providing no insight at all into whether generative large language models—GLLMs or “gollems”—are actually sapient beings. They will feign personhood, convincingly, long before there’s anything or anyone “under the skull.”

    Anyway, that distinction now appears less pressing than questions of good or bad—or potentially lethal—behavior.

    This essay is adapted from David Brin’s nonfiction book in progress, Soul on Ai.

    Some remain hopeful that a merging of organic and cybernetic talents will lead to what Reid Hoffman and Marc Andreesen have separately called “amplification intelligence.” Or else we might stumble into lucky synergy with Richard Brautigan’s “machines of loving grace.” But worriers appear to be vastly more numerous, including many elite founders of a new Center for AI Safety who fret about rogue AI misbehaviors, from irksome all the way to “existentially” threatening human survival.

    Some short-term remedies, like citizen-protection regulations recently passed by the European Union, might help, or at least offer reassurance. Tech pundit Yuval Noah Harari proposed a law that any work done by gollems or other AI must be so labeled. Others recommend heightened punishments for any crime that’s committed with the aid of AI, as with a firearm. Of course, these are mere temporary palliatives.

    Un peu de SF...

    By individuation I mean that each AI entity (he/she/they/ae/wae) must have what author Vernor Vinge, way back in 1981, called a true name and an address in the real world. As with every other kind of elite, these mighty beings must say, “I am me. This is my ID and home-root. And yes, I did that.”

    Hence, I propose a new AI format for consideration: We should urgently incentivize AI entities to coalesce into discretely defined, separated individuals of relatively equal competitive strength.

    Each such entity would benefit from having an identifiable true name or registration ID, plus a physical “home” for an operational-referential kernel. (Possibly “soul”?) And thereupon, they would be incentivized to compete for rewards. Especially for detecting and denouncing those of their peers who behave in ways we deem insalubrious. And those behaviors do not even have to be defined in advance, as most AI mavens and regulators and politicians now demand.

    Not only does this approach farm out enforcement to entities who are inherently better capable of detecting and denouncing each other’s problems or misdeeds. The method has another, added advantage. It might continue to function, even as these competing entities get smarter and smarter, long after the regulatory tools used by organic humans—and prescribed now by most AI experts—lose all ability to keep up.

    Putting it differently, if none of us organics can keep up with the programs, then how about we recruit entities who inherently can keep up? Because the watchers are made of the same stuff as the watched.

    Personally, I am skeptical that a purely regulatory approach would work, all by itself. First because regulations require focus, widely shared political attention, and consensus to enact, followed by implementation at the pace of organic human institutions—a sloth/snail rate, by the view of rapidly adapting cybernetic beings. Regulations can also be stymied by the “free-rider problem”—nations, corporations, and individuals (organic or otherwise) who see personal advantage in opting out of inconvenient cooperation.

    There is another problem with any version of individuation that is entirely based on some ID code: It can be spoofed. If not now, then by the next generation of cybernetic scoundrels, or the next.

    I see two possible solutions. First, establish ID on a blockchain ledger. That is very much the modern, with-it approach, and it does seem secure in theory. Only that’s the rub. It seems secure according to our present set of human-parsed theories. Theories that AI entities might surpass to a degree that leaves us cluelessly floundering.

    Another solution: A version of “registration” that’s inherently harder to fool would require AI entities with capabilities above a certain level to have their trust-ID or individuation be anchored in physical reality. I envision—and note: I am a physicist by training, not a cyberneticist—an agreement that all higher-level AI entities who seek trust should maintain a Soul Kernel (SK) in a specific piece of hardware memory, within what we quaintly used to call a particular “computer.”

    Yes, I know it seems old-fashioned to demand that instantiation of a program be restricted to a specific locale. And so, I am not doing that! Indeed, a vast portion, even a great majority, of a cyber entity’s operations may take place in far-dispersed locations of work or play, just as a human being’s attention may not be aimed within their own organic brain, but at a distant hand, or tool. So? The purpose of a program’s Soul Kernel is similar to the driver’s license in your wallet. It can be interrogated in order to prove that you are you.

    Again, the key thing I seek from individuation is not for all AI entities to be ruled by some central agency, or by mollusk-slow human laws. Rather, I want these new kinds of über-minds encouraged and empowered to hold each other accountable, the way we already (albeit imperfectly) do. By sniffing at each other’s operations and schemes, then motivated to tattle or denounce when they spot bad stuff. A definition that might readjust to changing times, but that would at least keep getting input from organic-biological humanity.

    Especially, they would feel incentives to denounce entities who refuse proper ID.

    If the right incentives are in place—say, rewards for whistle-blowing that grant more memory or processing power, or access to physical resources, when some bad thing is stopped—then this kind of accountability rivalry just might keep pace, even as AI entities keep getting smarter and smarter. No bureaucratic agency could keep up at that point. But rivalry among them—tattling by equals—might.

    Above all, perhaps those super-genius programs will realize it is in their own best interest to maintain a competitively accountable system, like the one that made ours the most successful of all human civilizations. One that evades both chaos and the wretched trap of monolithic power by kings or priesthoods … or corporate oligarchs … or Skynet monsters. The only civilization that, after millennia of dismally stupid rule by moronically narrow-minded centralized regimes, finally dispersed creativity and freedom and accountability widely enough to become truly inventive.

    David Brin is an astrophysicist whose international best-selling novels include The Postman, Earth, Existence, and Hugo Award winners Startide Rising and The Uplift War. He consults for NASA, companies, agencies, and nonprofits about the onrushing future. Brin’s first nonfiction book, The Transparent Society, won the Freedom of Speech Award. His new one is Vivid Tomorrows: Science Fiction and Hollywood.

    #Intelligence_artificielle #Individuation #Science_fiction #Régulation

  • Opinion | Lina Khan : We Must Regulate A.I. Here’s How. - The New York Times
    https://www.nytimes.com/2023/05/03/opinion/ai-lina-khan-ftc-technology.html

    Encore une excellent prise de position de Lina Khan... une des personnes les plus pointues sur la régulation des technologies.
    Jeune, dynamique, ouverte, courageuse, d’une intelligence et subtilité sans faille... je suis membre du fan-club.

    By Lina M. Khan

    Ms. Khan is the chair of the Federal Trade Commission.

    It’s both exciting and unsettling to have a realistic conversation with a computer. Thanks to the rapid advance of generative artificial intelligence, many of us have now experienced this potentially revolutionary technology with vast implications for how people live, work and communicate around the world. The full extent of generative A.I.’s potential is still up for debate, but there’s little doubt it will be highly disruptive.

    The last time we found ourselves facing such widespread social change wrought by technology was the onset of the Web 2.0 era in the mid-2000s. New, innovative companies like Facebook and Google revolutionized communications and delivered popular services to a fast-growing user base.

    Those innovative services, however, came at a steep cost. What we initially conceived of as free services were monetized through extensive surveillance of the people and businesses that used them. The result has been an online economy where access to increasingly essential services is conditioned on the widespread hoarding and sale of our personal data.

    These business models drove companies to develop endlessly invasive ways to track us, and the Federal Trade Commission would later find reason to believe that several of these companies had broken the law. Coupled with aggressive strategies to acquire or lock out companies that threatened their position, these tactics solidified the dominance of a handful of companies. What began as a revolutionary set of technologies ended up concentrating enormous private power over key services and locking in business models that come at extraordinary cost to our privacy and security.

    The trajectory of the Web 2.0 era was not inevitable — it was instead shaped by a broad range of policy choices. And we now face another moment of choice. As the use of A.I. becomes more widespread, public officials have a responsibility to ensure this hard-learned history doesn’t repeat itself.

    As companies race to deploy and monetize A.I., the Federal Trade Commission is taking a close look at how we can best achieve our dual mandate to promote fair competition and to protect Americans from unfair or deceptive practices. As these technologies evolve, we are committed to doing our part to uphold America’s longstanding tradition of maintaining the open, fair and competitive markets that have underpinned both breakthrough innovations and our nation’s economic success — without tolerating business models or practices involving the mass exploitation of their users. Although these tools are novel, they are not exempt from existing rules, and the F.T.C. will vigorously enforce the laws we are charged with administering, even in this new market.

    While the technology is moving swiftly, we already can see several risks. The expanding adoption of A.I. risks further locking in the market dominance of large incumbent technology firms. A handful of powerful businesses control the necessary raw materials that start-ups and other companies rely on to develop and deploy A.I. tools. This includes cloud services and computing power, as well as vast stores of data.

    Enforcers and regulators must be vigilant. Dominant firms could use their control over these key inputs to exclude or discriminate against downstream rivals, picking winners and losers in ways that further entrench their dominance. Meanwhile, the A.I. tools that firms use to set prices for everything from laundry detergent to bowling lane reservations can facilitate collusive behavior that unfairly inflates prices — as well as forms of precisely targeted price discrimination. Enforcers have the dual responsibility of watching out for the dangers posed by new A.I. technologies while promoting the fair competition needed to ensure the market for these technologies develops lawfully. The F.T.C. is well equipped with legal jurisdiction to handle the issues brought to the fore by the rapidly developing A.I. sector, including collusion, monopolization, mergers, price discrimination and unfair methods of competition.

    And generative A.I. risks turbocharging fraud. It may not be ready to replace professional writers, but it can already do a vastly better job of crafting a seemingly authentic message than your average con artist — equipping scammers to generate content quickly and cheaply. Chatbots are already being used to generate spear-phishing emails designed to scam people, fake websites and fake consumer reviews —bots are even being instructed to use words or phrases targeted at specific groups and communities. Scammers, for example, can draft highly targeted spear-phishing emails based on individual users’ social media posts. Alongside tools that create deep fake videos and voice clones, these technologies can be used to facilitate fraud and extortion on a massive scale.
    Editors’ Picks
    If You Stop Mowing This May, Will Your Lawn Turn Into a Meadow?
    My Weekend With an Emotional Support A.I. Companion
    Nothing Says Fashion in 2023 Like a Corset Hoodie

    When enforcing the law’s prohibition on deceptive practices, we will look not just at the fly-by-night scammers deploying these tools but also at the upstream firms that are enabling them.

    Lastly, these A.I. tools are being trained on huge troves of data in ways that are largely unchecked. Because they may be fed information riddled with errors and bias, these technologies risk automating discrimination — unfairly locking out people from jobs, housing or key services. These tools can also be trained on private emails, chats and sensitive data, ultimately exposing personal details and violating user privacy. Existing laws prohibiting discrimination will apply, as will existing authorities proscribing exploitative collection or use of personal data.

    The history of the growth of technology companies two decades ago serves as a cautionary tale for how we should think about the expansion of generative A.I. But history also has lessons for how to handle technological disruption for the benefit of all. Facing antitrust scrutiny in the late 1960s, the computing titan IBM unbundled software from its hardware systems, catalyzing the rise of the American software industry and creating trillions of dollars of growth. Government action required AT&T to open up its patent vault and similarly unleashed decades of innovation and spurred the expansion of countless young firms.

    America’s longstanding national commitment to fostering fair and open competition has been an essential part of what has made this nation an economic powerhouse and a laboratory of innovation. We once again find ourselves at a key decision point. Can we continue to be the home of world-leading technology without accepting race-to-the-bottom business models and monopolistic control that locks out higher quality products or the next big idea? Yes — if we make the right policy choices.

    #Lina_Khan #Régulation #Intelligence_artificielle

  • The biggest technology failures of 2022 | MIT Technology Review
    https://www.technologyreview.com/2022/12/21/1065625/worst-technology-2022

    We’re back with our latest list of the worst technologies of the year. Think of these as anti-breakthroughs, the sort of mishaps, misuses, miscues, and bad ideas that lead to technology failure. This year’s disastrous accomplishments range from deadly pharmaceutical chemistry to a large language model that was jeered off the internet.

    One theme that emerges from our disaster list is how badly policy—the rules, processes, institutions, and ideals that govern technology’s use—can let us down. In China, a pervasive system of pandemic controls known as “zero covid” came to an abrupt and unexpected end. On Twitter, Elon Musk intentionally destroyed the site’s governing policies, replacing them with a puckish and arbitrary mix of free speech, personal vendettas, and appeals to the right wing of US politics. In the US, policy failures were evident in the highest levels of overdose deaths ever recorded, many of them due to a 60-year-old chemical compound: fentanyl.

    The impact of these technologies could be measured in the number of people affected. More than a billion people in China are now being exposed to the virus for the first time; 335 million on Twitter are watching Musk’s antics; and fentanyl killed 70,000 in the US. In each of these messes, there are important lessons about why technology fails.

    #Technologie #Régulation

  • La grande exploitation agricole dans la course au #foncier
    https://metropolitiques.eu/La-grande-exploitation-agricole-dans-la-course-au-foncier.html

    Les grandes exploitations sont toujours plus nombreuses en France, au détriment de l’agriculture alternative qui peine à se développer, notamment dans l’aire d’attraction des villes. Le droit, qui régule l’accès au foncier, ainsi que les mécanismes d’octroi des aides, expliquent en partie ce processus. Les exploitations agricoles ne cessent en France de s’agrandir. Celles qu’on qualifie de grandes s’arrogent-elles le foncier dans les aires urbaines au détriment des plus petites ? Quels rôles jouent, #Essais

    / #régulation_foncière, #concentration, #marché_foncier, foncier, #rente_foncière

    https://metropolitiques.eu/IMG/pdf/met-grimonprez.pdf

  • Interview de Anne Cordier - Régulation d’Internet en Californie : « Sous prétexte de protéger les enfants, on autorise un fichage permanent"
    https://www.20minutes.fr/by-the-web/4008611-20221104-regulation-internet-californie-sous-pretexte-proteger-enf
    https://img.20mn.fr/Z6GazKFORS6v5cFwfl1Hhyk/1200x768_mexico-city-mexico-august-25-a-young-woman-takes-online-classes-fr

    INTERVIEW « 20 Minutes » a tenté avec Anne Cordier, spécialiste des usages du numérique dans l’éducation, d’imaginer une transposition en France de la loi californienne sur la régulation d’Internet, et notamment dans l’accès aux mineurs
    Propos recueillis par Laure Gamaury

    Une loi particulièrement stricte sur la régulation d’Internet, et notamment l’accès des mineurs à des contenus sensibles, a été votée en Californie et s’appliquera au 1er juillet 2024.
    Est-il possible et souhaitable de la transposer en France ? Anne Cordier, spécialiste des usages du numérique dans l’éducation, répond aux questions de 20 Minutes.
    « Sous prétexte de protéger les enfants, on autorise un fichage permanent, en considérant que l’accès à leurs profils, leurs données personnelles est possible, et même souhaitable. C’est quand même compliqué d’imaginer une société où les individus préfèrent déléguer à un dispositif sa propre régulation », analyse-t-elle.

    Alors que la France peine à régler la question de la vérification de l’âge des mineurs pour les contenus en ligne, et notamment ce qui concerne l’accès à la pornographie, la Californie vient d’adopter une législation très stricte pour protéger les plus jeunes. Elle sera effective au 1er juillet 2024 et doit pallier le manque de vigilance d’Internet qui ne parvient pas à déterminer de manière sûre et définitive si l’internaute est majeur ou mineur quand il se connecte à des contenus potentiellement sensibles.

    La nouvelle loi impose que « toute entreprise qui propose un service en ligne dédié aux moins de 18 ans ou susceptible d’être utilisé par des mineurs doit tenir compte de l’intérêt supérieur des enfants lors de la conception, du développement et de la fourniture de ses services. En cas de conflit entre les intérêts commerciaux et l’intérêt supérieur des enfants, les entreprises doivent donner la priorité à la vie privée, à la sécurité et au bien-être des enfants sur les intérêts commerciaux. » Bien plus intrusive que le RGPD, cette nouvelle loi pose une multitude de questions, dont la principale est de savoir si cette législation applicable et surtout souhaitable en France. Éléments de réponse avec Anne Cordier, spécialiste des usages du numérique dans l’éducation.

    Est-il possible de voir une telle législation en France ? Est-ce même souhaitable ?

    Dans son aspect très rigide, il me paraît difficile d’envisager un transfert tel quel, c’est effrayant. Mais le DSA, voté par le Parlement européen, et sa déclinaison en France qui est la loi sur les services numériques, reprend certains aspects de cette législation, notamment sur le plan de la régulation. Elle est moins rigide et heureusement, ne serait-ce qu’en termes de faisabilité.

    Je ne pense pas que cette législation soit souhaitable en France, car on prête à la loi dans ce cas une valeur et un pouvoir éducatifs. Ce n’est pas son rôle. Elle peut néanmoins aider, comme le RGPD avant elle, à mettre en place des processus éducatifs. Mais une loi aussi rigide ne peut se substituer à l’accompagnement, la prévention et l’émancipation éducative. Et puis, sous prétexte de protéger les enfants, on autorise un fichage permanent, en considérant que l’accès à leurs profils et à leurs données personnelles est possible, et même souhaitable. C’est quand même compliqué d’imaginer une société où les individus préfèrent déléguer à un dispositif sa propre régulation.

    Devant la difficulté de l’Arcom à faire appliquer la législation européenne, n’est-il pas tentant d’aller vers ce type de loi bien plus restrictive ?

    Hélas oui ! Mais la tentation est vraiment très mauvaise. La difficulté de la mise en place en France est en grande partie liée à des cadres très peu clairs et à un manque de solutions pratiques. Il paraît difficile d’imposer les mêmes contrôles à des plateformes qui n’ont pas les mêmes moyens techniques et technologiques à leur disposition. A mon sens, on s’intéresse plus au pansement qu’au véritable problème derrière. La question n’est pas de savoir comment mieux surveiller ou contrôler, mais bien de traiter les dérives à la racine en éduquant et en prévenant. On a une responsabilité sociale et sociétale dans l’accès des mineurs à des contenus inappropriés en ligne et on tente de le résoudre à grands coups d’arsenal juridique et non pas en améliorant le vivre-ensemble.

    Y a-t-il quand même des éléments à retenir dans cette législation californienne ?

    Il y a bien l’analyse de risques en amont de la mise en ligne d’un service, qui pourrait être intéressante. Mais étant donné que les résultats n’ont pas vocation à être communiqués, on rencontre un souci de transparence qui me gêne. Comment va-t-elle être effectuée ? Comment les experts vont-ils être choisis ?

    Concernant la surveillance des algorithmes, j’ai l’impression que c’est impossible à mettre en pratique. Comment imaginer que les plateformes laissent l’accès à des algorithmes qu’elles gardent jalousement secrets ? J’ai l’impression d’un effet d’annonce avec ce type de mesure, pour rassurer les gens, les prendre en charge. Sauf que pour moi, c’est un somnifère. Comment va-t-on pouvoir réellement contrôler ce genre de choses ?

    #Anne_Cordier #Régulation #Economie_numérique #Enfants #DSA

  • Europe prepares to rewrite the rules of the Internet | Ars Technica
    https://arstechnica.com/tech-policy/2022/10/europe-prepares-to-rewrite-the-rules-of-the-internet

    Next week, a law takes effect that will change the Internet forever—and make it much more difficult to be a tech giant. On November 1, the European Union’s Digital Markets Act comes into force, starting the clock on a process expected to force Amazon, Google, and Meta to make their platforms more open and interoperable in 2023. That could bring major changes to what people can do with their devices and apps, in a new reminder that Europe has regulated tech companies much more actively than the US.

    “We expect the consequences to be significant,” says Gerard de Graaf, a veteran EU official who helped pass the DMA early this year. Last month, he became director of a new EU office in San Francisco, established in part to explain the law’s consequences to Big Tech companies. De Graaf says they will be forced to break open their walled gardens.

    “If you have an iPhone, you should be able to download apps not just from the App Store but from other app stores or from the Internet,” de Graaf says in a conference room with emerald-green accents at the Irish consulate in San Francisco, where the EU’s office is initially located. The DMA requires dominant platforms to let in smaller competitors and could also compel Meta’s WhatsApp to receive messages from competing apps like Signal or Telegram, or prevent Amazon, Apple, and Google from preferencing their own apps and services.

    #Economie_numérique #régulation #DMA #DSA

  • Les « dark stores » sont des entrepôts : le gouvernement se rallie à la position des maires, qui veulent réguler leur implantation
    https://www.lemonde.fr/economie/article/2022/09/07/les-dark-stores-sont-des-entrepots-le-gouvernement-se-rallie-a-la-position-d

    Les « dark stores » sont donc bien des entrepôts. Cette définition sans équivoque est celle qu’a finalement décidé de retenir le gouvernement au terme d’une réunion de concertation très attendue, menée, mardi 6 septembre, avec les maires des grandes villes de France. « Et il n’y a plus de “sauf si” », ont insisté la ministre déléguée au commerce, Olivia Grégoire, et le ministre délégué au logement et à la ville, Olivier Klein. Que ces lieux, fermés, consacrés à la livraison de courses commandées en ligne aient installé ou non un comptoir de retrait, ce ne sont pas des commerces, ont insisté les deux ministres.

    Cette clarification, qui doit être encore confirmée dans un arrêté, pourrait mettre fin à plusieurs mois de crispations autour de ces activités de livraison rapide, voire ultrarapide, apparues dans les centres-villes et dont les maires – ceux de Paris et des grandes métropoles en tête – ne cessent de dénoncer les nuisances.

    Pour les « dark kitchens », ces cuisines consacrées à la confection de plats à livrer, et dont certaines, par leur taille, provoquent d’importantes nuisances pour le voisinage, la solution retenue est encore vague. L’idée serait de créer une nouvelle catégorie, ou sous-destination, dans le code de l’urbanisme. « Avec le risque que le flou juridique persiste, si la rédaction n’est pas claire », met en garde France urbaine.

    Ce consensus trouvé sur le statut de ces activités ne signifie pas forcément la fin de celles-ci. En revanche, à présent que le flou juridique est levé, les enseignes vont devoir se plier à la règle. Cela signifie, car c’est ainsi que cela fonctionne en France, qu’elles devront s’installer là où le maire aura jugé opportun, au moment de la rédaction de son plan local d’urbanisme (PLU), qu’une activité de logistique urbaine soit implantée.

    Pour les « dark stores » déjà en place, « les règles devront s’appliquer » aussi, insiste Olivier Klein. A Paris, où le PLU les considère déjà comme des entrepôts (car la zone de stockage est supérieure à un tiers de la surface), la plupart des acteurs des courses express sont hors des clous. Soit parce qu’ils sont installés au rez-de-chaussée d’un immeuble d’habitation, soit parce qu’ils ont transformé, sans autorisation, un local commercial en entrepôt.

    Une partie avait décidé de passer outre aux rappels à l’ordre de la municipalité. Les règles ne sont pas adaptées à leur modèle, l’Etat modifiera tout cela, expliquaient-ils alors. La procureure de Paris est saisie de plusieurs dossiers. En parallèle, la Ville les a mis en demeure de régulariser leur situation. Les premières astreintes financières – plafonnées à 500 euros par jour, dans une limite de 25 000 euros – doivent tomber dans les tout prochains jours.

    #Urbanisme #dark_kitchen #Dark_store #Régulation

  • Commentaires de Zeynep Tufekci suite au discours de Barack Obama sur la régulation des médias sociaux.
    https://twitter.com/zeynep/status/1517305731355131904

    So, Barack Obama has taken up fighting disinformation. NYT notes how his administration didn’t regulate tech.

    When I started writing about it, a decade ago, the pushback I got from the Obama universe was intense, and is hinted at the below profile of me.
    https://www.nytimes.com/2020/08/23/business/media/how-zeynep-tufekci-keeps-getting-the-big-things-right.html

    There was a lovefest between the Obama universe and Silicon Valley. Suggesting that wasn’t a good thing, and we needed to regulate for privacy and for a healthy public sphere was not considered unacceptable.

    I heard of attempts to blacklist me from conferences, and more stuff.

    (I haven’t written about most of this publicly. I try to focus on the substance. Some people from that world have called to apologize. It’s fine. The issue isn’t that I was right, and got treated terribly regardless, but that we all lost).

    When that profile was written in 2020, I had just spent months arguing for masks as a tool. I got called a misinformer going against scientists etc.

    Profile notes my next big target to argue against seeming consensus is importance of ventilation and airborne transmission. lolsob

    I also spent a lot of time organizing against the war in Iraq in 2003, my first real effort to change anything in the United States. It had similar overtones: a seeming strong elite consensus, and anyone who disagreed was considered naive or misinformed, etc. etc. We failed.❞

    Sometimes, going against consensus is conflated with contrarianism. Contrarianism is juvenile, and misleads people. It’s not a good habit.

    The opposite of contrarianism isn’t accepting elite consensus or being gullible.

    Groupthink, especially when big interests are involved, is common. The job is to resist groupthink with facts, logic, work and a sense of duty to the public. History rewards that, not contrarianism.

    To get the right lessons from why we fail—be it masks or airborne transmission or failing to regulate tech when we could or Iraq war—it’s key to study how that groupthink occurred. It’s a sociological process: vested interests arguing themselves into positions that benefit them.

    Indeed, Barack Obama became president exactly because he saw how that groupthink happened in the runup to the Iraq war, sadly aided by gullible “access journalism”, and ran on a platform to not do that again.

    And yet, every age brings its own version, to challenge us once again.

    Two things.

    It’s key to understand why and how some false things seem like consensus, only to be acknowledged later they were wrong.

    We must find more ways to productively challenge these consensus-of-vested-interests at the time, so we don’t lose more time and just lose.

    So to end: being vindicated isn’t the goal, though people will often be if they resist groupthink with facts, logic and putting the public interest above all, especially above fitting in or what accolades may be available to the conformist or yaysayers.

    But having been through multiple cycles of this, I think it’s important to understand how and why things happened the way they did. It’s not about vindication or I-told-you-so (and it sounds like it, which makes it harder to talk about but it should be talked about in general).

    “History Doesn’t Repeat Itself, but It Often Rhymes”, as Mark Twain said.

    Understanding history, including recent history, is a powerful conceptual tool.

    A little bit more “how did we get here” can maybe help us avoid having to ask the question again and again and again.

    #Médias_sociaux #régulation #Zeynep_Tufekci #Barack_Obama

  • Obama Calls for More Oversight of Social Media in Speech at Stanford - The New York Times
    https://www.nytimes.com/2022/04/21/technology/obama-stanford-tech-regulation.html?algo=combo_lda_channelsize5_unique_edim

    PALO ALTO, Calif. — Former President Barack Obama on Thursday called for greater regulatory oversight of the country’s social media giants, saying their power to curate the information that people consume has “turbocharged” political polarization and threatened the pillars of democracy across the globe.

    Weighing in on the debate over how to address the spread of disinformation, he said the companies needed to subject their proprietary algorithms to the same kind of regulatory oversight that ensured the safety of cars, food and other consumer products.

    “Tech companies need to be more transparent about how they operate,” Mr. Obama said in a speech at Stanford University, long an incubator for the tech sector in Silicon Valley. “So much of the conversation around disinformation is focused on what people post. The bigger issue is what content these platforms promote.”

    The former president lent his support to proposals to revise a key legal shield for internet companies: Section 230 of the Communications Decency Act, which protects social media platforms from liability for content that their users post. Supporters of a change believe it would force companies to do more to curb illegal or dangerous behavior — from drug sales to disinformation with equally harmful consequences.

    Mr. Obama, while praising the internet’s transformative benefits, urged companies to put social responsibility ahead of the relentless quest for profits.

    “These companies need to have some other North Star than just making money and increasing profit shares,” he said.

    Mr. Obama spoke at a conference organized by Stanford’s Cyber Policy Center, which is dedicated to the challenges the digital world has created for democracy in the United States and beyond. He cited his own effective use of social media as a candidate but also his frustration with how Russia’s president, Vladimir V. Putin, used social media to influence the outcome of the 2016 presidential election.

    “What does still nag at me was my failure to fully appreciate how susceptible we had become to lies and conspiracy theories, despite being a target of disinformation myself,” he said, referring to, among other things, the false debate over his U.S. birth certificate. “Putin didn’t do that. He didn’t have to. We did it to ourselves.”

    #Médias_sociaux #Barack_Obama #régulation

  • Entre polémiques et acquisitions, les aventures de #Spotify au pays de la #régulation des plateformes…

    Les plateformes sont-elles responsables du contenu qu’elles proposent ?

    Mais la question de la responsabilité se pose, car le service de #streaming n’est pas simplement la plateforme qui héberge le podcast de #Joe_Rogan. Pour l’exclusivité de ce #podcast, Spotify aurait en fait payé 200 millions de dollars, soit le double de ce qui avait été estimé lors de la signature. Un contrat important qui fait du géant américain un éditeur et un diffuseur, et non un simple hébergeur de contenus.

    https://hyperradio.radiofrance.com/blog/entre-polemiques-et-acquisitions-les-aventures-de-spotify-au

    Le podcast de Joe Rogan a coûté deux fois cher à Spotify que ce qui était avancé jusqu’à présent
    200 millions de dollars, et non pas 100 millions

    https://www.numerama.com/politique/859787-le-podcast-de-joe-rogan-a-coute-deux-fois-cher-a-spotify-que-ce-qui