Travailler avec une « IA » ? Je préfèrerais ne pas !
A message from the SUD-IDÉES union at Sorbonne Université (ex Paris-VI plus Paris IV)
What was I doing at 2:59 PM on January 21? That’s the day the message copied below arrived in my inbox, and I know the answer to the question: I was thinking about the first session of my course with Justin Clarke-Doane, which was scheduled to start just over an hour later. That must be why I hastily copied the text as a draft to be posted on Silicon Reckoner, and just as hastily forgot that it was there.
You can read about the Sorbonne-Université chapter of the SUD trade union federation on its home page, which includes a link to the communiqué copied here. The Wikipedia page gives you a decent idea of the federation’s history and political orientation, but says nothing about its branch at Sorbonne-Université. So it won’t tell you that the reminder that
Comme pour toute nouveauté conceptuelle ou technique, il est légitime que l’université s’intéresse à l’IA. Mais le cadre imposé, où les objectifs affirmés sont « innovation », « accélération » et « diffusion dans l’économie », ne favorise pas la moindre distance critique vis-à-vis de cette technologie. Pourtant, des voix bien informées (journalistes, chercheurs, dirigeants d’entreprises...) s’élèvent pour nous avertir de ses aspects pervers déjà bien existants.
(which you can read in context below) is being circulated by colleagues at one of France’s premier centers of scientific research.
Readers who followed my suggestion to watch the RARE/EARTH panel at the Institute for Advanced Studies, or those who are simply paying attention to the news, will be well aware that AI “participe au saccage de l’environnement” and “exploite le travail humain.” This is also one of the main themes of (former MIT Technology Report senior AI editor) Karen Hao’s Empires of AI, on which I will report in the near future. It’s heartening to see evidence that some French scientists are talking about this as well.
Travailler avec une « IA » ? Je préfèrerais ne pas !
Section SUD-IDÉES SU, janvier 2025
equipe@listes.sud-su.fr
« ChatGPT-4, c’est un peu nul. »
Sam Altman (PDG de OpenAI, éditeur de ChatGPT), janvier 2024
Obéissant au mot d’ordre de l’innovation à marche forcée, l’équipe présidentielle de SU embarque notre université, tête baissée, dans la course à l’« intelligence artificielle » (IA). Ainsi, dans un contexte de pénurie de moyens généralisée pour les universités, l’Alliance SU a remporté un contrat de 35 millions d’euros sur 5 ans avec l’Agence Nationale de la Recherche (ANR), dans le cadre d’une stratégie « renforcée par une deuxième phase en 2021 adossée au Plan France 2030 et dotée de 1,5 milliards d’euros pour diffuser plus largement l’IA dans notre économie et notre société, notamment par la formation de davantage de talents pour développer et utiliser ces technologies intelligentes1 ». Outre la recherche et l’enseignement, une partie de ces fonds est utilisée pour des formations professionnelles2qui encouragent ouvertement l’utilisation de l’IA générative au travail, auprès des BIATSS, enseignants et chercheurs.
Comme pour toute nouveauté conceptuelle ou technique, il est légitime que l’université s’intéresse à l’IA. Mais le cadre imposé, où les objectifs affirmés sont « innovation », « accélération » et « diffusion dans l’économie », ne favorise pas la moindre distance critique vis-à-vis de cette technologie. Pourtant, des voix bien informées (journalistes, chercheurs, dirigeants d’entreprises...) s’élèvent pour nous avertir de ses aspects pervers déjà bien existants. En résumé (vous trouverez ci-dessous un argumentaire détaillé3) :
Parler d’ « intelligence artificielle » est une exagération trompeuse.
L’IA n’est pas fiable.
L’IA est une industrie lourde.
L’IA participe au saccage de l’environnement.
L’IA exploite le travail humain.
L’IA est une technologie toxique.
L’IA est un soldat décérébré.
Ainsi, nous affirmons les positions suivantes :
Refusons que les robots conversationnels (« IA génératives ») soient introduits au travail.
A rebours des « guides d’utilisation » édités par les géants industriels et de l’encouragement à la paresse intellectuelle, diffusons une information critique sur l’IA auprès des étudiants4.
Refusons l’introduction de l’IA sous couvert d’arguments faciles du type « l’IA fait gagner du temps ». Si nous manquons de temps pour faire correctement notre travail, c’est que les dirigeants de l’université nous imposent une organisation du travail profondément défaillante, combinée au manque chronique d’effectifs.
Pour l’enseignement, exigeons une formation professionnelle centrée sur les questions pédagogiques et didactiques, et basée sur les savoirs disciplinaires.
Pour la recherche, exigeons le respect du cadre de décision collégiale prévu par la loi (conseils d’UFR, Commission de la Recherche), au lieu de laisser l’équipe présidentielle nous « piloter » vers le gouffre.
Parler d’ « intelligence artificielle » est une exagération trompeuse. S’agissant de logiciels qui génèrent des textes (ChatGPT et autres chatbots), plutôt que d’« IA générative », il conviendrait mieux de parler d’automates conversationnels. Qu'on appelle cela « intelligence artificielle », « réseaux de neurones », « deep learning » ou encore « large language models », il s’agit toujours d’un « apprentissage » consistant à faire construire par la machine un modèle statistique, par le traitement automatisé d'une base de données (dite d'entraînement). Même si on assiste ces dernières années à des évolutions majeures d'un point de vue scientifique et technologique, il ne peut rien y avoir d'intelligent, seulement un ordinateur qui fait des calculs.
L’IA n’est pas fiable. Les robots conversationnels ne font que calculer la réponse la plus probable à une requête. Faire en sorte que cette réponse soit la plus correcte possible (en fonction de critères pré-établis), c’est un sujet de recherche, un problème qui est loin d’être résolu, et cela ne saurait remplacer l’intelligence humaine, notamment à des fins de réduction des coûts salariaux. Ainsi, le chatbot de l’entreprise de messageries DPD a été désactivé après avoir insulté des clients. Les IA utilisées par les cabinets d’avocat ont une fâcheuse tendance à inventer des jurisprudences. Gare aussi aux utilisations dans l’enseignement et la recherche : fausses références bibliographiques5, démonstrations mathématiques subtilement fausses, protocoles expérimentaux dangereux, etc. Par son fonctionnement même, un automate conversationnel risque de reproduire les biais présents dans les données qu’il ingère(préjugés racistes, sexistes, etc). Dans l’hypothèse où ces « bugs » seraient prochainement résolus, le domaine d’application fiable de l’IA restera, du fait de son fonctionnement probabiliste, beaucoup plus limité que ce que promettent ses promoteurs.
L’IA est une industrie lourde. Les réalisations « impressionnantes » des IA contemporaines reposent en grande partie sur un gigantesque changement d’échelle dans la puissance de calcul et de stockage, basé sur une infrastructure matérielle massive, coûteuse et énergivore. Convaincus par le baratin des technoprophètes de la Silicon Valley, et anxieux de « rester dans la course », géants industriels et États consentent des investissements colossaux pour construire les gigaserveurs de données et les infrastructures associées. Voici le vrai visage de l’économie « dématérialisée » : adieu hauts fourneaux et laminoirs (délocalisés vers les pays à bas salaires), place aux gigaserveurs sous entrepôts réfrigérés de la taille de plusieurs terrains de foot, et aux réacteurs nucléaires dédiés à les alimenter6.
L’IA participe au saccage de l’environnement. L’Agence Internationale de l’Energie estime7 qu’à l’échelle mondiale en 2026, l’industrie de l’IA consommera à elle seule autant d’électricité que le Japon (la 4ème économie mondiale !). En attendant l’avènement miraculeux de l’énergie propre (esprit de la fusion nucléaire, es-tu là ?), l’IA carbure à l’énergie crade des centrales à charbon ou à fission nucléaire, qui empoisonnent durablement notre milieu de vie. Pour satisfaire sa frénésie de microprocesseurs, l’IA accélère le pillage des ressources naturelles : eau douce8, cuivre, lithium, cobalt, etc. En plus de cet immense gâchis, l’accès stratégique à ces ressources nourrit des conflits meurtriers, comme en République Démocratique du Congo où les multinationales minières financent les groupes armés et corrompent les dirigeants9.
L’IA exploite le travail humain. Tout au long de leur chaîne de production, les systèmes d’IA reposent sur le travail humain. Pour obtenir les données qui sont leur « matière » première, Amazon, Google, Apple et consorts pillent le Web, récoltant sans contrepartie le fruit du travail des autres : créations artistiques, enquêtes, analyses, supports d’enseignement, etc. Les espaces privés, les boîtes courrier, les stockages partagés ou même locaux ne sont pas à l'abri : les conditions d'utilisation évoluent pour permettre ce pillage de vos documents. Ensuite, des centaines de milliers de travailleurs du clic vivant dans des pays à bas salaires sont payés à la tâche10 pour annoter ces données et participer à l’entraînement des modèles.
L’IA est une technologie toxique. On estime actuellement que OpenAI, propriétaire de ChatGPT, consacre 700 000 dollars/jour à fournir son logiciel en accès libre, habituant des millions d’utilisateurs à s’en servir. N’est-ce pas la démarche du dealer qui offre des doses de « came » gratuites pour se constituer une clientèle captive qui ne pourra bientôt plus s’en passer, et la paiera au prix fort ? Dans plusieurs pays, y compris la France, l’administration expérimente le remplacement des agents publics par des chatbots pour « interagir » avec les usagers de service public, mais aussi pour traiter, de manière déshumanisée, les dossiers des bénéficiaires d’aide sociale. A la faveur des JO de Paris, la « vidéosurveillance algorithmique » a été expérimentée dans l’espace public, et malgré ses performances très inégales, le gouvernement se déclare désormais favorable à la généralisation du dispositif11.
L’IA est un soldat décérébré. Le ministère français de la Défense annonce des investissements importants dans la recherche en IA. Car les armées modernes utilisent l’IA, notamment pour générer des coordonnées de cibles pour leurs bombardements, accélérant dramatiquement le rythme des actions mortelles, et accentuant le phénomène de déresponsabilisation des militaires – sur ce plan, il faut admettre que l’IA est terriblement efficace. Aujourd’hui c’est l’armée israélienne qui s’illustre lamentablement dans ce domaine12, demain si on ne dit pas STOP, ce seront d’autres armées, à la botte de dirigeants avides de puissance, qui suivront son exemple.
[1] https://www.sorbonne-universite.fr/presse/le-cluster-postgenaiparis-un-projet-academique-ambitieux-pilote-par-sorbonne-universite
https://anr.fr/fr/france-2030/france2030/call/ia-cluster-poles-de-recherche-et-de-formation-de-rang-mondial-en-intelligence-artificielle-app/
[2] https://intranet.sorbonne-universite.fr/fr/ressources-humaines/formation-des-personnels/catalogue-des-formations/intelligence-artificielle.html
[3] Plusieurs exemples sont tirés du livre de Thibault Prévost, Les prophètes de l’IA, Pourquoi la Silicon Valley nous vend l’Apocalypse, Lux 2024.
[4] Voir https://buttondown.com/maiht3k/archive/chatgpt-has-no-place-in-the-classroom/
et https://www.arthurperret.fr/blog/2024-11-15-guide-etudiant-ne-pas-ecrire-avec-chatgpt.html
[5] J. Buchanan, S. Hill, O. Shapoval, ChatGPT hallucinates non-existent citations: evidence from economics, vol 69 (nov 2024), p. 80-87
[6] https://www.lemonde.fr/economie/article/2024/09/23/les-geants-du-numerique-se-convertissent-au-nucleaire_6329378_3234.html
[7] Eren Çam et al, Electricity 2024: Analysis and Forecast to 2026, Paris, International Energy Agency, 2024
[8] https://arxiv.org/abs/2304.03271
[9] Voir Fabien Lebrun, Barbarie numérique, Une autre histoire du monde connecté (L’Échappée, 2024)
[10] Voir Antonio Casilli, En attendant les robots, Enquête sur le travail du clic (Seuil, 2019)
[11] https://www.francetvinfo.fr/faits-divers/police/videosurveillance-algorithmique-le-comite-d-evaluation-emet-des-doutes-sur-l-efficacite-du-dispositif-mis-en-place-pour-les-jeux-de-paris_7015922.html
[12] https://fr.wikipedia.org/wiki/Ciblage_assist%C3%A9_par_l%27IA_dans_la_bande_de_Gaza