Un aspect qui me chagrine un peu, c’est que même chez Gary Marcus, ça se focalise sur des travers que seraient des utilisations frauduleuses de l’IA : désinformation et fishing essentiellement. (Et tout le monde nous fait un peu chier avec ces histoires de désinformation, comme si Trump, QAnon, les climatosceptiques et les covidiots, les gouvernements qui mentent, avaient besoin de la moindre IA pour générer et rendre « crédibles » leurs foutaises délirantes.)
Pourtant il y a toutes les utilisations qui sont soit déjà légales, soit prochainement légales, et qui sont totalement épouvantables : « aide » à la justice (lui est noir et pauvre, il ira en prison parce que l’IA super-finaude a trouvé qu’il avait une tête à récidiver), « aide » aux contrôles des aides sociales (elle selon l’IA, elle a un profil à picoler sont argent de la CAAF, alors on va lui couper les vivres), pourquoi pas l’orientation des gamins avec des algorithmes qui font flipper tout le monde (je sais, Parcoursup est loin de l’IA, mais je n’ai aucun doute que c’est la prochaine étape), aide aux flics (celui-là, l’IA a décidé de te me le ficher S illico, vu qu’il est abonné au flux RSS de rezo.net et qu’il lit Bastamag…), automatisation complète de la médecine (au lieu d’une aide au diagnostic, on remplacera carrément le médecin avec une IA), etc.
Automatisation des accès aux droits (immigration, solidarités, logement, éducation…), et incompétence organisées des personnels. Et renforcement de ce principe d’autorité (« le logiciel se trompe moins que les humains ») que déjà beaucoup de personnels ne sont plus en position de prendre la responsabilité d’aller à l’encontre d’une décision prise par un algorithme.