hubertguillaud

Journaliste et rédacteur en chef de http://www.internetactu.net - aka @iactu -, le média de la Fondation internet nouvelle génération http://www.fing.org

  • Corriger les biais des systèmes techniques n’est pas si simple, nous rappelle AlgorithmWatch en prenant l’exemple des annonces publicitaires de Meta. Car pour les corriger, il faut pouvoir les mesurer. Et le problème, c’est que toutes les catégories publicitaires doivent l’être selon leurs propres caractéristiques. Pour des annonces publicitaires localisées, il faut pouvoir corriger les biais de localisation selon les distributions des populations locales, pour les annonces d’emploi, selon les spécificités de genre ou de catégories sociales, pour les annonces liées aux revenus, disposer d’informations sur les revenus, etc. La tâche est immense et il est probable que les plateformes ne réagissent que sous le coup de condamnation, comme vient de le faire Meta sur les annonces immobilières aux Etats-Unis seulement.

    Face à ces problèmes récurrents, il n’est pas sûr que les rapports d’audit ou de transparence, telles que demandés aux BigTech suffisent. D’abord et avant tout parce qu’elles mettent dedans ce qui les arrange : elles définissent les normes de leurs contrôles (et chacune le fait différemment), choisissent leurs auditeurs et produisent les données qu’elles souhaitent partager, au risque d’un audit-washing et d’une inflation de rapports qui ne nous apprennent pas grand chose et qui ne permettent pas de faire levier pour agir. Et ce au détriment d’examens externes et indépendants, rendus de plus en plus difficiles...

    https://hubertguillaud.wordpress.com/2023/11/28/resoudre-les-biais-nest-pas-si-simple