L’impact de l’intelligence artificielle (IA) sur nos vies est déterminé par les gouvernements et les entreprises, avec peu de contribution des gens ordinaires, explique l’expert en IA Dan McQuillan, qui appelle à des changements sociaux pour résoudre cette dynamique de pouvoir inégale et à son tour remodeler la façon dont la technologie est abordée en premier lieu.
Maître de conférences en informatique créative et sociale à Goldsmiths, Université de Londres, et auteur de Résister à l’IA : une approche antifasciste de l’intelligence artificielle, Dan McQuillan soutient que le fonctionnement de l’IA ne représente pas un ensemble de problèmes particulièrement nouveaux ou novateurs, mais est simplement la dernière manifestation de la structure organisationnelle rigidement hiérarchique de la société capitaliste.
« Une partie de ma tentative d’analyser l’IA est une sorte de continuité radicale. Clairement [imposition of AI from above] n’est pas en soi un problème particulièrement original. Presque tout le reste de nos vies est également imposé de manière descendante et non participative », dit-il.
« Ce qui nous prépare à cette imposition, c’est notre ouverture à l’idée même d’une vision descendante… qu’il existe une vision monoculaire singulière qui comprend comment les choses sont et qui est dans une position supérieure pour décider quoi faire à ce sujet.
Cependant, étant donné la nature socio-technique de l’IA – où les composants techniques sont informés par les processus sociaux et vice versa – McQuillan souligne la nécessité d’un changement social pour arrêter son imposition d’en haut.
Ce changement social, soutient-il, doit être éclairé par une politique préfigurative; se référant à l’idée que les moyens ne peuvent être séparés des fins et que toute action entreprise pour effectuer un changement devrait donc être conforme aux objectifs envisagés et ne pas reproduire les structures ou les problèmes sociaux existants.
Dans une conversation précédente avec CFP sur la nature superficielle des engagements éthiques du secteur de la technologie, McQuillan a noté que la capacité de l’IA à catégoriser les gens et à attribuer des blâmes – le tout sur la base de données historiquement biaisées qui mettent l’accent sur la corrélation plutôt que sur toute forme de causalité – signifie que la technologie fonctionne souvent d’une manière étonnamment similaire à la politique du populisme d’extrême droite : « Je ne dis pas que l’IA est fasciste, mais cette technologie se prête à ce genre de solutions. »
Il soutient en outre dans son livre que l’IA est également sous-tendue par les logiques de l’austérité (décrivant l’IA à CFP comme un « mode d’allocation » qui propose « des moyens statistiquement raffinés de diviser un gâteau toujours plus petit ») et de la « nécropolitique » (l’utilisation de diverses formes de pouvoir, maintenant intégrées dans le fonctionnement des algorithmes, pour dicter comment les gens vivent et meurent).
« L’IA décide de ce qui est inclus et de ce qui est exclu, qui obtient et qui n’obtient pas, qui est un risque et qui n’est pas un risque. Quelle que soit son application, c’est ainsi que fonctionne l’IA – elle trace les limites de décision et ce qui relève de et de ce qui relève de types particuliers de classification ou d’identification.
Dan McQuillan, orfèvres, Université de Londres
« L’IA décide de ce qui est inclus et de ce qui est exclu, qui obtient et qui n’obtient pas, qui est un risque et qui n’est pas un risque », dit-il. « Quelle que soit son application, c’est ainsi que fonctionne l’IA – elle trace les limites de décision, et ce qui relève de et sans types particuliers de classification ou d’identification.
« Parce qu’il prend ces corrélations potentiellement très superficielles ou lointaines, parce qu’il les datafie et les quantifie, il est traité comme réel, même si elles ne le sont pas. »
Préfigurer l’avenir
Dans Résister à l’IA, McQuillan soutient qu’il s’agit fondamentalement d’une technologie politique et qu’elle devrait être traitée comme une « technologie émergente de contrôle qui pourrait finir par être déployée » par des régimes fascistes ou autoritaires.
« Les opérations concrètes de l’IA sont complètement enchevêtrées avec la matrice sociale qui les entoure, et le livre soutient que les conséquences sont politiquement réactionnaires », écrit-il dans l’introduction. « L’effet net de l’IA appliquée… est d’amplifier les inégalités et les injustices existantes, en approfondissant les divisions existantes sur la voie d’un autoritarisme algorithmique complet.
McQuillan ajoute que le fonctionnement actuel de l’IA et son imposition par le haut sont donc « absolument contigus à la façon dont la société est organisée en ce moment », et qu’en fin de compte, son pouvoir vient des personnes déjà préparées à accepter une « vue unique et descendante ».
Pour McQuillan, il est essentiel, lors du développement de systèmes socio-techniques comme l’IA, de considérer les moyens et les fins, « afin que ce que vous faites soit cohérent avec l’endroit où vous essayez d’arriver… c’est pourquoi j’annulerais essentiellement l’IA telle que nous la connaissons actuellement, parce que je ne la vois tout simplement pas s’améliorer. [under our current social arrangements]. »
Mise en évidence de l’historLes nazis, par exemple, se sont inspirés des lois ségrégationnistes Jim Crow des États-Unis, ainsi que de la construction de camps de concentration par des puissances coloniales européennes comme l’Espagne et la Grande-Bretagne, et sont arrivés au pouvoir par des moyens électoraux – McQuillan remet en question la notion populaire selon laquelle les démocraties libérales sont un rempart efficace contre le fascisme.
Il ajoute qu’il y a un réel manque de compréhension autour de la liste des « citoyens ordinaires » dans le fascisme du début du 20ème siècle, et comment les structures politiques libérales ont tendance à préfigurer les structures fascistes.
« Cela n’arrive pas parce que les SS arrivent, ils sont juste une sorte d’élément de niche de sociopathes complets, bien sûr, mais ils sont toujours de niche – le vrai danger est la façon dont les gens qui se comprennent comme des citoyens responsables, et même de bonnes personnes, peuvent finir par faire ces choses ou permettre qu’elles se produisent », a-t-il déclaré.
Reliant cela directement au développement et au déploiement de l’IA en tant que système socio-technique, McQuillan note en outre que l’IA elle-même – préfigurée par les impératifs politiques et économiques du libéralisme – est également sujette à la logique du fascisme.
« L’une des raisons pour lesquelles je suis si dédaigneux de cette idée… que « ce dont nous avons vraiment besoin, c’est d’un bon gouvernement parce que c’est la seule chose qui a le pouvoir de régler ce problème d’IA », c’est à cause de la continuité entre les formes de gouvernement que nous avons et les formes de gouvernement qui, je pense, sont à venir et qui sont clairement plus fascistes », dit-il.
Il ajoute que les chances que la régulation étatique freine les pires abus de l’IA sont donc minces, surtout dans le contexte des continuités historiques entre libéralisme et fascisme qui ont permis à ce dernier de s’installer.
« L’effet net de l’IA appliquée… est d’amplifier les inégalités et les injustices existantes, en approfondissant les divisions existantes sur la voie d’un autoritarisme algorithmique complet »
Dan McQuillan, orfèvres, Université de Londres
« Quels que soient les arrangements socio-techniques préfiguratifs que nous proposons, ils doivent être explicitement antifascistes, en ce sens qu’ils essaient explicitement d’immuniser les relations sociales contre le risque toujours présent que les choses évoluent dans cette direction… Pas nécessairement seulement l’opposition explicite au fascisme quand il viendra, parce qu’à ce moment-là, il est beaucoup trop tard ! »
Vers des visions alternatives
S’inspirant de l’idée de « réalisme capitaliste » de Mark Fisher – la conception que le capitalisme est le seul système politique et économique viable et qu’il n’y a donc pas d’alternatives possibles – McQuillan postule que l’IA commence à être vue de la même manière, en ce sens que la domination prédite de l’IA est de plus en plus acceptée comme une fatalité, et qu’il n’y a aucune tentative de remettre sérieusement en question son utilisation.
Citant un article de décembre 2022 de la sociologue Barbara Prainsack, intitulé Les racines de la négligence : vers une sociologie de la non-imagination, McQuillan note en outre comment nos idées sur l’avenir sont souvent façonnées par notre imagination actuelle de ce qui est possible, ce qui a également un effet préfiguratif important.
« Notre imagination du futur fonctionne sur des lignes de chemin de fer qui sont déjà définies pour nous », dit-il, ajoutant que cela a pour effet de limiter les visions alternatives et plus positives de l’avenir, en particulier dans les pays riches où les gouvernements et les entreprises sont à l’avant-garde de la promotion des technologies de l’IA.
« Il est très difficile de voir des mouvements dynamiques pour des avenirs alternatifs dans les pays du Nord. Ils sont là, mais ils sont dans différents endroits du monde. Quelque part comme le Rojava [in Northern Syria], ou avec les zapatistes [in Chiapas, Mexico] et beaucoup d’endroits en Amérique latine, je pense, ont en fait des visions alternatives sur ce qui est possible; Nous ne le faisons pas, en général.
McQuillan dit que ce manque général de visions alternatives est également reflété et préfiguré dans les « récits de science-fiction avec lesquels nous avons tous été adoucis », citant le nihilisme fataliste du genre cyberpunk comme exemple.
« Le cyberpunk est une extrapolation de la technologie dans les relations sociales que nous avons déjà, il n’est donc pas surprenant qu’il finisse par être assez dystopique », dit-il, ajoutant que si le sous-genre de la science-fiction est plus réaliste que d’autres – en ce sens qu’il s’agit d’une « extrapolation des relations que nous avons réellement et non de ce que les gens pensent que nous avons, comme une démocratie opérationnelle » – il y a un besoin urgent de visions plus positives pour tracer de nouvelles voies.
Soulignant le genre naissant du « solarpunk » – qui rejette spécifiquement le pessimisme dystopique du cyberpunk en décrivant un avenir durable basé sur des approches collectivistes et écologiques de l’organisation sociale et de la technologie – McQuillan dit qu’il offre « une énergie punk positive » qui donne la priorité à la résolution de problèmes DIY.
Il le dit aussi utilise la technologie de telle sorte qu’elle est « très subsumée » à un ensemble plus large de valeurs sociales positives.
« L’un des moteurs du solarpunk, que j’ai lu de toute façon, c’est qu’il a une ontologie fondamentalement relationnelle ; En d’autres termes, que nous dépendons tous les uns des autres, que nous sommes tous liés [and interconnected] les uns aux autres et aux êtres non humains », dit-il, ajoutant que « c’est très similaire à la plupart des visions du monde autochtones », qui considèrent l’environnement et la nature comme quelque chose qui devrait être respecté et lié, plutôt que dominé et contrôlé.
Dans cette optique, et contrairement à ce qu’il appelle la « science réactionnaire » de l’IA – selon laquelle « tout est réductible, cartographiable et donc contrôlable » – McQuillan désigne la cybernétique de Stafford Beer comme une voie potentielle et pratique pour aller de l’avant.
Parce qu’il met l’accent sur le besoin d’autonomie et de dynamisme tout en reconnaissant la complexité impliquée dans de nombreux domaines de la vie humaine (embrassant ainsi l’idée que tout n’est pas connaissable), McQuillan suggère que l’adoption de la cybernétique beerienne pourrait préfigurer un certain nombre d’alternatives sociales et technologiques.
« L’autre chose qui me frappe dans la cybernétique, c’est qu’il ne s’agit pas d’un type spécifique de technologie, mais plutôt de flux organisationnels, si vous voulez, qui peuvent être non informatiques et informatiques », dit-il. « C’est cette idée de surfer un peu sur la vague, mais d’avoir différents niveaux dans lesquels vous devez le faire. »
Il ajoute: « Vous devez vous occuper des choses locales, si vous ne vous en occupez pas, rien n’a d’importance, mais cela ne fonctionne pas en soi – vous devez avoir une coordination de zones plus vastes, de ressources naturelles, peu importe, de sorte que vous imbriquez votre coordination. »
Quelque part entre les Luddites et le Plan Lucas
Bien que le terme luddite soit utilisé aujourd’hui comme raccourci pour désigner quelqu’un qui se méfie ou critique des nouvelles technologies sans raison valable, les origines historiques du terme sont très différentes.
Alors que le sabotage sur le lieu de travail se produisait sporadiquement tout au long de l’histoire anglaise lors de divers conflits entre travailleurs et propriétaires, les Luddites (composés de tisserands et de travailleurs du textile) représentaient une approche systémique et organisée du casse-machine, qu’ils ont commencé à faire en 1811 en réponse à l’imposition unilatérale de nouvelles technologies (métiers à tisser mécanisés et cadres à tricoter) par une nouvelle classe croissante d’industriels.
Le luddisme visait donc spécifiquement à protéger les emplois, les salaires et les conditions de travail des travailleurs contre les impacts négatifs de la mécanisation.
« La façon de s’attaquer aux problèmes de l’IA est de faire des choses que l’IA ne fait pas, il s’agit donc de collectiviser les choses, plutôt que de les individualiser jusqu’au niveau moléculaire, ce que l’IA aime faire »
Dan McQuillan, orfèvres, Université de Londres
En janvier 1976, les travailleurs de Lucas Aerospace avaient publié le plan Lucas en réponse aux annonces de la direction selon lesquelles des milliers d’emplois manufacturiers étaient menacés par la restructuration industrielle, la concurrence internationale et les changements technologiques.
Le plan proposait que les travailleurs eux-mêmes établissent un contrôle sur la production de l’entreprise, afin qu’ils puissent mettre leurs précieuses compétences en ingénierie au service de la conception et de la fabrication de nouvelles technologies socialement utiles au lieu de continuer à remplir des contrats militaires pour le gouvernement britannique, qui représentait environ la moitié de sa production.
Pour McQuillan, la réponse collective à l’IA en 2023 devrait se situer quelque part entre les efforts des travailleurs du textile et des ingénieurs aérospatiaux, en ce sens qu’il devrait y avoir un mélange d’action directe contre l’IA telle que nous la connaissons et de projets sociaux participatifs pour envisager des utilisations alternatives de la technologie.
Cependant, il note qu’il peut être difficile pour beaucoup sans « expériences positives d’alternatives réelles » de « croire que les gens agiraient de cette façon, se soutiendraient les uns les autres de cette façon, rêveraient de cette façon… Ils n’ont jamais connu l’excitation ou l’énergie de ces choses qui peuvent être débloquées. »
Pour résoudre ce problème, McQuillan note que les idées des gens changent par l’action : « Cela ne peut pas être seulement une question de discours. Cela ne peut pas être qu’une question de mots. Nous voulons mettre les choses en pratique.
« La plupart des mises en pratique seraient, espérons-le, du côté le plus positif, du côté plus solaire, donc cela doit se produire. Mais l’action implique toujours de repousser ce que vous ne voulez pas voir maintenant. »
D’un autre côté, McQuillan dit que cela pourrait impliquer l’utilisation de la technologie dans des projets communautaires ou sociaux pour démontrer une alternative positive d’une manière qui engage et enthousiasme les gens.
D’autre part, il pourrait s’agir d’une action directe contre, par exemple, la construction de nouveaux centres de données dans des zones où l’accès à l’eau est problématique., pour souligner le fait que le fonctionnement de l’IA dépend d’infrastructures physiques préjudiciables à l’environnement appartenant entièrement à des entités privées, plutôt que contrôlées par les communautés là où elles existent pour leur propre bénéfice.
McQuillan préconise également l’auto-organisation sur les lieux de travail (y compris les professions si nécessaire), ainsi que la formation d’assemblées de citoyens ou de jurys pour freiner ou contrôler l’utilisation de l’IA dans des domaines spécifiques – tels que la fourniture de logements ou de services sociaux – afin qu’ils puissent contester eux-mêmes l’IA au lieu de l’application formelle de l’État.
« La façon de s’attaquer aux problèmes de l’IA est de faire des choses que l’IA ne fait pas, il s’agit donc de collectiviser les choses, plutôt que de les individualiser jusqu’au niveau moléculaire, ce que l’IA aime faire », dit-il.