La « grande transformation » numérique a introduit le calcul dans tous les domaines : le travail, la santé, la formation, les loisirs, l'aide sociale, l’éducation, outillant le néolibéralisme, sous l'apparence impartiale de la technique, d'une nouvelle ingénierie politique. Le journaliste Hubert Guillaud, spécialiste des techniques et du numérique, décrypte le fonctionnement des systèmes algorithmiques qui ne sont pas seulement défaillants et opaques, mais intrusifs et despotiques », exacerbant la logique austéritaire et le contrôle des pauvres pour des économies dérisoires.
Alors que l’interconnexion des machines était promue comme une révolution technique et politique, elle s’avère être une dépossession et une privatisation, transférant l’accès à un réseau ouvert et public à des opérateurs privés. L’open data reste l’arbre qui cache la forêt : tandis que quelques données publiques étaient rendues accessibles, le mouvement principal était leur interconnexion à l’abri des regards et leur transmission à des acteurs privés. Hubert Guillaud. identifie quatre phases dans cette évolution :
- des années 2000 à 2010, l’âge de la souscription et de la recommandation simple. On reçoit uniquement les notifications des nouvelles publications des personnes auxquelles on est abonné.
- entre 1010 et 2016, l’âge du réseau et du modèle des propagations. La propagation d’un message est amplifiée ou rétrogradée par les effets du réseau, selon l’intérêt manifesté par les utilisateurs (like, partages, etc).
- De 2016 à 2021, l’âge algorithmique fondé sur le modèle de la similarité, avec l’intégration de l’intelligence artificielle. Les contenus sont recommandés en fonction des « similarités » identifiées entre utilisateurs.
- Depuis 2021, on est entré dans l’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial. Les plateformes se désintéressent de l’intérêt général et de celui des utilisateurs pour amplifier leur modèle commercial. Elles dégradent la performance de l’information pour promouvoir des interactions supposées apolitiques, en se focalisant sur le service aux annonceurs, plus rentable que celui aux utilisateurs. Toutefois, l’efficacité de ces modèles reste faible puisque le taux d’engagement est de moins de 1% et le taux de clic publicitaire plus bas encore.
Aucun calcul n’est neutre. Il reflète toujours l’idéologie qui l’a mis en œuvre. « Sous prétexte d'économie budgétaire, la dématérialisation n'est pas exempte d’“objectifs“. Elle est d'abord un moyen de préserver le taux de profit. Elle est d'abord [sic] un levier pour accélérer le définancement des services publics, mais également un levier pour minimiser les droits, voire un moyen d'empêcher les administrés d'accéder à leurs droits. La numérisation est d'abord un moyen pour défaire l'État-providence. » L’auteur dénonce aussi l’imprécision des calculs, notamment lorsque trop de variables entrent en jeu, privilégiant un critère ou un objectif au détriment des autres. Il s’appuie sur des études qui démontrent la faiblesse des résultats proposés par les modèles prédictifs complexes par rapport à ceux de modèles traditionnels.
La CAF a automatisé ses contrôles de façon disproportionnée, en élargissant la notion de fraude aux indus et trop perçus – donc à des erreurs –, au détriment du conseil, de l’assistance et de l’aide, au mépris de l’obligation prévue par la loi pour une République numérique de 2016, de dévoiler le fonctionnement de leurs algorithmes. « Selon l'article 47 de la loi Informatique et libertés, les explications des décisions administratives utilisant des modalités de calcul doivent être “individualisées, détaillées et intelligibles“. Dans la pratique, elles sont opaques, hermétiques, sinon inexistantes. » Les chiffres évoqués sont édifiants, notamment par rapport à ceux de la fraude fiscale et des non-recours, confirmant une « vision particulièrement discriminatoire des droits ».
Nos demandes, quelles qu’elles soient, dépendent de plus en plus d’un « score » dont Hubert Guillaud souligne l’opacité, pour permettre, selon lui, le contournement des règles, notamment de l’équité. Il démontre également comment la surexploitation des données accentue les discriminations. Ainsi, Parcoursup organise « le tri social » en distribuant la pénurie de place à ceux qu’il juge les plus aptes à les occuper, en se basant sur le plus petit dénominateur commun : les résultats scolaires, au détriment de la motivation. Le plus « difficile » est de départager les candidats « moyens » d’après des microcritères complètement arbitraires : « le calcul introduit une différence qui est purement calculatoire ». « La précision remplace l’objectivité. » « La massification du système de l'enseignement supérieur nécessite de départager de plus en plus de candidats que rien ne distingue. Là où Parcoursup les leurre, c'est qu'il leur fait croire que sa logique est rationnelle et méritocratique, éloignant le regard d'un problème structurel qui n'a d'autres solutions que l'augmentation du nombre de places disponibles. » « Ces systèmes fonctionnent bien pour les candidats normaux mais surcontrôlent les candidats qui dévient de la norme, avec un biais “pauvrophobe“ qui accroît les exigences envers les candidats les plus défavorisés, à l'instar de la prise en compte du comportement pour les filières professionnelles. »
Les mêmes approximations sont déployées dans le domaine de l’emploi : un candidat qui prétend maîtriser la suite Adobe sera rejeté car il n’a pas mentionné Photoshop sur son cv, quelle que soit la raison une interruption de carrière est éliminatoire,… « Les décisions algorithmiques sont devenues des moyens de contourner les lois qui interdisent les pratiques discriminatoires et ségrégatives. » Cependant, il s’avère compliqué de démontrer les dysfonctionnements de ces systèmes que l’auteur accuse de « limiter l’accès au droit des bénéficiaires ».
Les logiciels de ressources humaines cherchent avant tout à réduire les coûts, sans mesurer « l’impact de cette obsession sur la performance ». Ils amplifient les conditions d’exploitation en brouillant les distinctions entre management, marketing et surveillance, et en aucun cas ne contribuent à un progrès social.
La recherche critique dénonce régulièrement « une nouvelle bureaucratie […] insensée, pathogène et peu performante ». Le ciblage publicitaire permet de comprendre les logiques et les dysfonctionnements de l’économie numérique. La publicité offre un spectacle, « avec des chiffres et des métriques dont la précision fait illusion ». Ce marché « défaillant » ne s’écroule pas uniquement parce que les budgets n’ont nul autre support où aller. « La logique du calcul reste une logique de pouvoir. La société du marketing a besoin de l'opacité pour faire croire en sa puissance. » Le mode de gouvernance – le pouvoir – n’est plus articulé au savoir mais à des informations opérationnelles qui s’en dispensent, « nient le signifiant, la pertinence, la causalité ».
De la même façon, les prix ne reposent plus sur l’évaluation du prix de revient mais sur « l’évaluation de la capacité à payer des clients ». Les applications modulent tarifs et promotions selon de nombreux critères, de façon totalement invisible. Les prix pour les plus pauvres sont souvent plus élevés et les réductions proposées aux plus riches pour les pousser à consommer davantage. Uber, de son côté, a développé une tarification algorithmique qui met aux enchères les courses au bénéfice des moins-disants, tout en augmentant les prix. Le commerce en ligne multiplie également les frais supplémentaires. « La numérisation permet d’abaisser les coûts et la visibilité de la collusion », tandis que la régulation est prise de vitesse.
Hubert Guillaud n’est pas tendre avec les patrons de la Silicon Valley, « adulés pour leur réussite économique » : « La plupart des start-ups sont des entreprises très mal gérées, à moitié bancales, dirigées par des bouffons, des abrutis et des copains de confréries étudiantes, et financées par des investissements sans aucune morale qui espèrent seulement que leur entreprise sera introduite en bourse pour gagner de l'argent rapidement. » « Contrairement à ce que l'on pense souvent, le succès de l'économie numérique dans la Silicon Valley repose d'abord sur l'accompagnement public exceptionnel dont a bénéficié la région. Mais elle repose également sur la dérégulation du droit du travail. » Il alerte sur les moteurs de recherche qui projette de devenir, grâce à leur IA intégrée, des moteurs de réponses, au risque de voir disparaître les médias. Dans le domaine des politiques publiques, l’IA générative, court-circuite déjà et déresponsabilise les agents, pour fournir des réponses qui tiennent plus de l’accusé de réception.
Cet autoritarisme de la technologie n’est pas seulement du aux individus qui la financent mais à « une fonctionnalité inscrite au cœur de la technique numérique, faite d'instructions, d'ordres, de modalités de calcul qui réduisent le réel ». L’IA, en particulier, menace directement le personnel et les relations sociales en renforçant « la cruauté bureaucratique envers les plus vulnérables ». Elle est à la fois compatible avec le capitalisme financier et avec « le fascisme qui monte ». Selon le philosophe Achille Mbembe, elle accroit ce qu’Hannah Arendt appelait « l’inconscience institutionnelle », c’est-à-dire « l’incapacité de critiquer les instructions ou de réfléchir aux conséquences ». « Le fait que l’IA performe à catégoriser les gens à partir de corrélations plus que de causalités suggère que la technologie fonctionne de la même manière que l'idéologie d'extrême droite. La menace de l’IA n'est pas la super-intelligence, mais au contraire le solutionnisme populiste qui risque d'émerger de la convergence entre le capitalisme de la Silicon Valley et la politique d'extrême droite. »
Suite à ce long état des lieux, l’auteur préconise de « reprendre la main sur les décisions qui nous sont imposées », en commençant par exiger l’accès aux systèmes. Plus facile à dire qu’à faire, bien entendu. Il prend toutefois l’exemple de la BBC, radio publique créée au moment où la radio était devenu un outil de propagande, et aussi de Wikipédia, d’OpenStreetMap ou de Signal, véritables « services mondiaux non commerciaux qui sont des formes de médias de service public ». Il suggère aussi l’interdiction de la police prédictive, de la reconnaissance faciale et de celle de l'émotion.
Il prévient toutefois que toutes ces discriminations ne pourront être combattues par des pétitions en ligne et que faute de progrès social et moral de la part de l’innovation numérique, il faudra nous en défaire : « Si nous laissons le numérique s'enfoncer dans le cynisme et l'autoritarisme alors il devra être abattu avec le capitalisme débridé auquel il obéit. »
Exposé fort intéressant qui met en lumière l’idéologie à l’œuvre – et l’ensemble de ses rouages – derrière le masque de la neutralité de la technique.
Ernest London
Le bibliothécaire-armurier
LES ALGORITHMES CONTRE LA SOCIÉTÉ
Hubert Guillaud
176 pages – 14 euros
La Fabrique éditions – Paris – Avril 2025
lafabrique.fr/les-algorithmes-contre-la-societe/
Voir aussi :
Aucun commentaire:
Enregistrer un commentaire