1 Depuis soixante-dix ans, nos sociétés imaginent leur compagnonnage avec des « intelligences artificielles ». Lorsqu’en 1956 John McCarthy proposa le terme d’intelligence artificielle pour désigner un ensemble de recherches visant à donner à des automates une agentivité autonome, le débat sur les règles de coexistence avec ces nouvelles entités n’a jamais cessé d’agiter les esprits. Les technologies que désigne cette appellation malencontreuse suscitent autant d’espoirs que de craintes. À peine avait-on commencé à les imaginer qu’il était question de savoir comment les contrôler. L’imaginaire de l’IA sollicite aussi immédiatement des interrogations ontologiques que les débats relatifs à ces technologies ont toujours été entourés de considérations à la fois mythologiques, philosophiques, éthiques et métaphysiques. À côté des trois lois de la robotique d’Isaac Asimov, des dilemmes moraux de HAL dans 2001 l’Odyssée de l’espace, le mythe fondateur du Golem des légendes juives est régulièrement convoqué dans la littérature sur l’éthique des intelligences artificielles. La créature humanoïde modelée de glaise par le rabbin Loew à Prague pour défendre sa communauté d’attaques antisémites, échappe au contrôle de son créateur et finit par se retourner contre les humains. Le mythe du Golem appartient à ces récits archétypaux sur les créatures artificielles dont l’autonomie remet en question la manière dont l’homme interroge sa propre nature (Breton, 1995). Comment nos sociétés peuvent-elles s’assurer que la créature ne va pas se retourner contre ses créateurs ? Avant même que les technologies de l’IA n’aient la moindre existence concrète, philosophes, éthiciens et romanciers étaient déjà à l’ouvrage pour imaginer les règles destinées à les domestiquer. Ce paradoxe rend particulièrement intéressante l’analyse des entreprises de régulation et de contrôle qui se mettent aujourd’hui en place, maintenant que l’IA n’est plus simplement une projection imaginaire mais désigne des entités techniques concrètes qui commencent leur déploiement au sein de nos sociétés.

2 Ce numéro de Réseaux propose d’explorer un ensemble d’arènes dans lesquelles le développement des technologies de l’intelligence artificielle est soumis à un débat normatif. Il cherche à expliquer l’inflation de réflexions et d’essais, de recommandations et de chartes, de craintes et de critiques, de règlements et de lois dont l’IA fait l’objet. Comme le montrent les différents articles qui le composent, ces productions normatives relèvent de genres singulièrement différents. Aussi avons-nous retenu le terme de contrôle dans son acception générale, parce qu’il permet de réunir des démarches visant aussi bien à interroger, critiquer ou contraindre le développement de l’IA. Cette formulation permet d’ouvrir plusieurs types de questionnements.

3 Le premier interroge l’étroite association de l’IA à une réflexion de nature éthique. Ce lien a pris forme dans les réflexions conduites dans la période de l’après-guerre au sein du courant de la cybernétique, notamment à propos de la contribution des scientifiques à la fabrication de l’arme atomique. C’est en partant de l’idée que « Dieu est au Golem, ce que l’homme est aux machines » que Norbert Wiener a bâti dans God and Golem (1964) les fondements d’une éthique des machines automatiques reposant sur une analogie religieuse : le mal comme la tentation de faire de l’homme le serviteur de sa propre création ; le pêcheur comme l’« adorateur du gadget » qui utilise « la magie de l’automatisation moderne pour favoriser le profit personnel ou pour déclencher les terreurs apocalyptiques de la guerre nucléaire » ; et cette paraphrase des saintes Écritures, souvent citée, comme principe moral : « Rendez à l’homme ce qui est à l’homme, et à l’ordinateur ce qui est à l’ordinateur » (Wiener, 1964). L’éthique de Wiener repose sur un triptyque qui n’a jamais cessé de structurer les débats autour de ce que nous pourrions appeler le Triangle d’or du contrôle de l’IA : protéger la frontière menacée entre les êtres vivants et les machines, ce qui suppose une prise de position ontologique sur la spécificité humaine vis-à-vis des intelligences artefactuelles ; toujours viser la fabrication de prothèses qui émancipent les hommes en lieu et place de la figure de l’« usine mécanisée » qui les remplace, les dépasse et plus insidieusement les « désengage » (Pickering, 2019) ; responsabiliser les scientifiques non pas de la maîtrise de leur « savoir-faire », mais du contrôle de leur « savoir quoi », c’est-à-dire de ce que doivent être nos buts à fabriquer des intelligences artificielles (Wiener, 1950). Inscrits dans différentes arènes, les multiples débats et critiques (Garvey, 2021) interrogeant les limites qui doivent être fixées au développement de l’IA peuvent être regardés comme des approfondissements de chacun des trois aspects de ce Triangle d’or.

4 Un deuxième questionnement porte sur la relation entre les normes et les objets qu’elles souhaitent contrôler. Bien qu’elle soit souvent personnifiée sous un identifiant unique, l’IA, il est en réalité très difficile de définir les entités techniques qu’elle désigne. Ce flou est d’autant plus important que les entités techniques appelées IA ont considérablement changé selon les bifurcations des différents paradigmes de l’histoire scientifique du domaine. La résurgence récente dans le débat sur les futurs technologiques d’un terme qui avait été presque abandonné dans les années 1990 constitue un épisode curieux de l’histoire des sciences : les techniques d’apprentissage profond d’inspiration « connexionniste » qui avaient été écartées par les fondateurs de l’IA « symbolique » dans les années 1960 réalisent depuis 2010 des performances remarquables (Cardon et al., 2018). Dans le domaine de l’image, de la voix ou de la traduction automatique, ces technologies sont parvenues à faire renaître le terme d’intelligence artificielle alors que celui-ci était historiquement associé à l’idée d’une intelligence artificielle générale (aussi appelée « Good Old-Fashioned Artificial Intelligence » (GOFAI)). Cette promesse technologique n’a jamais abouti à des réalisations concrètes et son horizon a été reporté dans un futur lointain. En revanche, les artefacts à « intelligence faible » des techniques de deep learning se déploient massivement dans nos sociétés. Au robot autonome qui n’a jamais vraiment vu le jour se sont substitués des environnements de calcul permettant de reconnaître, d’identifier et de transformer de grands volumes de données. Cette transformation des objets de l’IA a des conséquences importantes sur la manière dont nous débattons de leur régulation. Le débat éthico-philosophique entourant la créature autonome continue de nourrir une partie des débats sur l’IA, même si les objets de l’IA ont changé. On peut faire l’hypothèse qu’il existe un phénomène d’hystérésis conduisant à contrôler les machines d’aujourd’hui avec un cadre normatif qui a été construit par les machines d’hier. Comme cherchent à le montrer certains articles de ce numéro, la discussion normative sur l’IA est toujours tendue entre des considérations d’éthique principielle et des considérations de justice. On peut ainsi expliquer pourquoi ces débats sont si multiples et se déploient dans des arènes différentes : dans les médias, au sein des communautés scientifiques, chez les nombreux essayistes, parmi les think tanks et les nombreuses organisations militantes ou entrepreneuriales qui édictent des recommandations, au sein des groupes d’experts mandatés par les organisations internationales, dans les discussions préparatoires à la rédaction d’un règlement européen.

5 Une troisième ligne de questionnement tient à la difficile maîtrise politique du développement des technologies, un thème classique des études de la gouvernance des technologies émergentes (Joly, 2015). L’un des ouvrages majeurs de ce domaine est l’analyse de Collinridge (1980) qui a fait apparaître le dilemme du « contrôle social des technologies » : dans la phase d’émergence des technologies, nous manquons de connaissances pour prédire leurs impacts sur la société. Nous sommes contraints de les laisser se déployer pour en mesurer les conséquences, mais il est alors trop tard car elles sont enracinées dans la société et par un effet de dépendance leur contrôle devient difficile. Bien connu des spécialistes de la gouvernance des technosciences, ce dilemme dit de Collingridge suggère qu’un contrôle de la technologie est de facto impossible. Pour sortir de ce dilemme, Collingridge (1980) propose de faire en sorte que la technologie reste « contrôlable » malgré sa diffusion, en se donnant les moyens de la rendre flexible afin d’éviter une dépendance excessive aux irréversibilités qu’elle installe. Mais la solution de Collingridge se heurte à un autre dilemme : c’est parce qu’elles sont enracinées et pervasives que les innovations tiennent et se déploient dans la société. Leur retirer cette dimension d’enracinement en les rendant flexibles va donc à l’encontre de la réalité concrète des conditions sociales de diffusion de l’innovation, bien montrée dans les analyses des constructions de réseaux socio-techniques autour des technologies émergentes. Si bien que la croyance dans le caractère inéluctable du développement technologique reste très répandue (Winner, 2002).

Une inflation de charte éthique

6 C’est dans ce contexte qu’il faut comprendre comment le contrôle de l’IA est devenu une préoccupation importante de l’espace public, une spécialité éthique, philosophique et scientifique et même, plus récemment, un cadre juridique en cours d’élaboration. Dès le début des années 2010, sous la pression de nombreux activistes et des alertes des scientifiques et des ingénieurs, l’Europe, relayée ensuite par d’autres États, insiste sur l’importance de prendre en considération les enjeux « éthiques et sociétaux » soulevés par l’IA. Il se dessine une gouvernance de l’IA à plusieurs niveaux, du global au local, des entreprises aux instituts de recherche, des comités d’éthique aux machines elles-mêmes éthiques (Ulnicane et al., 2022). Dans l’ensemble, il s’agit de convaincre que le développement de l’IA se fera de façon « responsable », en permettant à l’homme de « garder la main » sur des machines « dignes de confiance ».

7 Les grandes entreprises numériques, mais également une partie de la communauté académique, technique et des think tanks, se sont engagées dans la constitution de cadres déclaratoires, non contraignants juridiquement. De très grandes variétés de documents sortiront de cette « vague de l’éthique de l’IA », avec une intention commune : proposer des cadres d’actions lisibles pour les développeurs de solutions d’IA, à partir des principes de haut niveau comme la transparence, l’équité, la responsabilité ou la robustesse (Jobin et al., 2019). La multiplication de ces chartes « responsables » ont fait l’objet de critiques. Au moins 84 lignes directrices éthiques ont été élaborées pour fournir ces principes de haut niveau comme base pour le développement éthique de l’IA (Mittelstadt et al., 2016). Celle-ci est régie par un principalisme inspiré par la bioéthique, ce qui signifie que les cadres moraux théoriques sont produits de manière déductive à partir de principes abstraits, puis appliqués aux pratiques (Mittelstadt, 2019). Il est reproché au principalisme de ne pas prendre suffisamment en compte les particularités de ces algorithmes et le contexte de leur mise en œuvre (Mittelstadt, 2019 ; Powers et Ganascia, 2020 ; Floridi, 2019).

8 Pourtant, il faut reconnaître que ces initiatives scientifiques ont fait évoluer les débats éthiques et sociaux sur l’IA, et en particulier au sujet du machine learning. En effet, ces débats ne se limitent plus aux discussions traditionnelles sur la vie privée et la protection des données, ou sur l’avenir du travail et la destruction des emplois – des thèmes classiques de l’éthique de l’informatique ou de la robotique. Un ensemble diversifié de questions est désormais mis en avant : les biais de l’apprentissage automatique, les risques de manipulation par les systèmes de recommandations, l’interprétabilité des classifications, etc. Autant de thèmes qui sont aujourd’hui traités par la recherche et qui suscitent de riches controverses scientifiques au sein des communautés Fair Machine Learning (Fair ML) et Explainable AI (XAI). Les chercheurs de ces communautés ont entrepris de construire des indicateurs d’équité de manière formelle, afin de corriger les algorithmes ML biaisés et de produire des méthodes permettant de les rendre plus explicables (Haas, 2019 ; Mehrabi et al., 2021). Mais cette approche est également critiquée pour son approche descendante cherchant à intégrer des contraintes éthiques dans les algorithmes d’apprentissage automatique. À l’instar du principalisme, des articles récents critiquent ces techniques « équitables » car elles ne prennent pas suffisamment en compte le contexte dans lequel l’algorithme est appliqué (Fazelpour et Lipton, 2020 ; Selbst et al., 2019 ; John-Mathews et al., 2022). Ils appellent à une compréhension plus approfondie de la mise en œuvre « sociale » des techniques algorithmiques afin d’éviter une vision limitée, technologiquement déterministe et axée sur les experts de l’éthique de l’IA (Greene et al., 2019).

Contrôler l’IA ou contrôler le marché ?

9 Derrière cette science régulatoire et les controverses qui lui sont associées se dessine une gouvernance globale de l’IA. On observe en effet une grande variété de travaux des organisations intergouvernementales pour encadrer les applications de l’intelligence artificielle. La régulation apparaît d’abord comme un instrument au cœur d’une compétition économique entre les grandes puissances industrielles. En Europe, le projet de réglementation de la Commission publiée le 21 avril 2021 marque une évolution considérable dans l’histoire du contrôle de l’IA. D’une éthique des systèmes d’IA, l’Europe est passée à une régulation de la conformité des produits de l’IA mis à disposition sur le marché. Plusieurs réactions au projet de réglementation considèrent que si l’AI Act est une contribution majeure, il reste insuffisant. Il néglige la mise en place d’une régulation tournée vers les droits fondamentaux, l’État de droit et la démocratie en laissant le marché s’installer comme unique base dogmatique du contrôle de l’intelligence artificielle (Veale et Borgesius, 2021 ; Edwards, 2022).

10 En Europe, ce sont essentiellement des rapports parlementaires supranationaux, tels que ceux du Parlement européen ou de l’Assemblée parlementaire du Conseil de l’Europe (APCE), qui ont apporté une impulsion politique pour réguler plus strictement les systèmes d’IA. Si ces rapports ont notamment consolidé et rendu public nombre de constats auparavant épars, tels que le renforcement des discriminations, l’impact sur la démocratie ou encore les problèmes concrets pour les systèmes juridiques de responsabilité, force est de constater qu’ils ont eu un effet de cadrage très limité. D’où la critique de certains juristes selon lesquels quelque chose s’est volatilisé en chemin dans ce passage de la critique sociale à la proposition de réglementation de la Commission : en paraphrasant Alain Supiot, on peut dire que ce qui est critiqué, c’est la perte d’un ordre juridique reposant sur la base dogmatique d’un droit qui remplisse des fonctions d’adaptation des systèmes d’IA à l’homme, c’est-à-dire un droit comme technique d’humanisation des techniques, protégeant l’homme « des fantasmes de la toute-puissance engendrée par la puissance machinique » (Supiot, 2009).

11 En effet, en installant le dogme du marché dans la régulation de l’IA, la Commission a dû faire fi d’une part importante des analyses critiques de la généralisation de l’IA sur la société. On retrouve cette tension entre marché et droits fondamentaux lorsqu’on observe les institutions multilatérales avec lesquelles l’Union doit composer pour construire la gouvernance des systèmes d’IA. Si la proposition de règlement de la Commission européenne a retenu toute l’attention des commentateurs, les autres textes publiés ou en cours d’élaboration, notamment au Conseil de l’Europe, à l’OCDE et à l’ONU (en particulier dans l’une de ses agences, l’UNESCO), viennent poser les premiers jalons d’une coopération internationale : instruments pour créer de la confiance pour le développement économique et la sécurité des marchés, en ce qui concerne l’OCDE ; instruments pour créer de la confiance pour garantir les droits des individus et le développement durable des sociétés, en ce qui concerne notamment le Conseil de l’Europe et l’UNESCO [1][1]Il en existe d’autres : l’agence européenne des droits…. Mais ces deux dernières institutions semblent de moins en moins peser dans la gouvernance mondiale des systèmes d’IA.

12 Dans ce paysage toujours en évolution de la gouvernance mondiale, les États restent les acteurs clefs de la volonté de contrôle de l’IA, bien que le pouvoir de développement de la recherche et de l’innovation est du côté des grandes entreprises privées du numérique. L’une des initiatives les plus révélatrices de la géopolitique de l’IA est la mise en place du Global Partnership On AI (GPAI) en 2017 par le Canada et la France, s’inspirant du modèle du GIEC. L’initiative n’a pas suscité un emballement immédiat, notamment de la part des États-Unis. Même si le GPAI est présenté comme un instrument pour limiter l’influence de la Chine sur le système mondial émergent de gouvernance de l’IA, cet imaginaire de la menace chinoise semble surtout relever de la rhétorique des acteurs qui craignent que l’adoption de toute forme de réglementation n’entrave l’innovation dans le domaine de l’IA (Bryson, 2021).

Analyser l’institutionnalisation du contrôle de l’IA

13 Comment sont débattues les manières d’encadrer l’intelligence artificielle ? Quelles sont les normes qui s’imposent ? Pour répondre à ces questions, une bonne partie des analyses se tournent actuellement vers l’Artificial Intelligence Act de l’Union européenne. Comme dans d’autres domaines, la Commission européenne cherche, avec son projet de réglementation, à concilier l’extension d’un immense et extrêmement profitable marché avec la prévention de dommages sur les individus et la société.

14 Dans leur article, Bilel Benbouzid, Yannick Meneceur et Nathalie A. Smuha (« Quatre nuances de régulation de l’intelligence artificielle. Une cartographie des conflits de définition ») montrent que l’Artificial Intelligence Act, en se concentrant sur les produits et en reposant sur le paradigme des risques, ne traite que d’un aspect limité de l’Intelligence Artificielle et de son contrôle. En partant des problèmes de définition de l’IA, les auteurs observent l’existence d’au moins quatre arènes normatives différenciées : les réflexions spéculatives – notamment transhumanistes – sur les dangers d’une superintelligence et le problème de son alignement avec les valeurs humaines ; l’auto-responsabilisation des chercheurs développant une science régulatoire entièrement consacrée à la certification technique des machines ; la critique des effets néfastes des systèmes d’IA sur les droits fondamentaux ; enfin, la régulation européenne du marché par le contrôle de la sécurité du fait des produits et service de l’IA. Si le projet de réglementation pouvait faire bon ménage avec une « science régulatoire » qui traite des enjeux de sûreté, d’équité et d’explicabilité d’un point de vue technique, il suscite tout autant les critiques des milieux transhumanistes qui appellent à imaginer une forme de contrôle anticipatoire d’une « intelligence artificielle générale », conçue comme une sorte d’horizon inexorable, qu’aux spécialistes des droits fondamentaux qui entendent faire usage de la fonction dogmatique du droit qui viserait à humaniser les systèmes d’IA. L’apport global de l’analyse est de montrer comment l’espace social de la régulation s’est structuré autour d’une tendance qui évolue d’un contrôle in abstracto vers un contrôle in concreto. Ainsi, d’une régulation principielle et abstraite, le régulateur européen s’est rendu progressivement à une régulation concrète, locale, produit par produit, secteur par secteur, en partie parce que les objets de l’IA sont des réalités produisant des effets tangibles comme les accidents et les discriminations. C’est que les propositions d’une anticipatory governance des futurs de l’IA dépassent difficilement encore le mot d’ordre de l’« humanisation des systèmes d’IA ». Serions-nous incapables d’agir en dehors d’une prévention des risques de court terme ?

15 Ce principe du cas par cas au cœur du projet de réglementation s’impose aussi au sociologue qui enquête sur les pratiques concrètes du contrôle des systèmes d’IA. Une contribution de ce numéro traite du cas des systèmes d’IA d’aide à la détection et au diagnostic en imagerie médicale. À partir d’une enquête fouillée auprès des différents acteurs concernés, Léo Mignot et Émilien Schultz (« Les innovations d’intelligence artificielle en radiologie à l’épreuve des régulations du système de santé ») montrent comment le contrôle de l’IA dans ce secteur procède d’une régulation autonome, à la fois professionnelle et économique. En effet, la régulation est portée par les acteurs responsables du secteur, notamment les médecins et les industriels. Ainsi, ce ne sont ni les agences de santé, ni le droit ou des normes techniques qui encadrent pour l’instant la construction et l’usage des dispositifs, mais les normes professionnelles des radiologues. L’enquête révèle que les préoccupations des acteurs sont très éloignées de la manière dont le problème est posé dans le débat public. Les enjeux du contrôle des IA en imagerie portent sur des sujets assez prosaïques, mais pas moins cruciaux : par exemple, la tarification des actes et des modèles économiques qui engagent les administrations étatiques sont le genre de questions prises au sérieux par les acteurs, bien plus que celle de la menace du remplacement des radiologues par des machines. Le problème du contrôle social apparaît alors comme celui de savoir qui contrôle quoi ? En matière de radiologie, l’État reste assez peu impliqué dans la régulation, si bien que la responsabilité des acteurs en matière de diagnostics assistés par des systèmes d’IA reste, en l’état actuel, entre les mains des industriels et des réseaux professionnels.

16 Cette question de la responsabilité apparaît pourtant au centre des mécanismes de contrôle. Qui est responsable en cas de dysfonctionnement d’une machine apprenante évoluant sans l’intervention directe de son concepteur et de son utilisateur ? Cette question juridique, de fait très ancienne en droit (Solum 1992), pose de cornéliens dilemmes aux régulateurs. Ljupcho Grozdanovski (« L’agentivité algorithmique, fiction futuriste ou impératif de justice procédurale ? ») montre dans ce numéro comment la doctrine juridique en matière de responsabilité est mise à l’épreuve des systèmes de machine learning. Si la plupart des juristes s’accordent sur l’idée selon laquelle le dommage imputable aux systèmes d’IA résulte d’un régime de responsabilité « du fait des choses », l’instrument du dommage doit être prouvé. Mais les processus de prise de décision des machines contemporaines qui utilisent le deep learning restent sinon incompréhensibles pour l’entendement humain, du moins difficiles à retracer avec les méthodes disponibles. Dans ce contexte, l’étude de Ljupcho Grozdanovski traite de deux aspects de la responsabilité juridique qui forment un imbroglio complexe : le traitement de la chaîne des responsabilités et la participation effective des justiciables dans des disputes autour de « boîtes noires algorithmiques ». L’apport de l’étude réside dans le fait qu’elle traite d’un sujet amplement débattu en doctrine (i.e. la responsabilité du fait d’IA), sous l’angle de la justice procédurale et de la preuve. Peut-on assimiler les systèmes d’IA les plus avancés à des agents, ce qui impliquerait de leur reconnaître des droits et des devoirs ? Quels sont les critères à utiliser pour désigner un humain responsable dans le cas d’un dommage causé par un système d’IA ? Ljupcho Grodanovski propose de répondre à ces questions en prenant comme point de départ la question de l’administration de la preuve en cas de dommage algorithmique. Il s’intéresse en particulier à la méthode de régulation au niveau de l’AI ACT qui s’appuie sur la directive 85/374 établissant un régime de responsabilité du fait des produits défectueux. En s’appuyant sur ce règlement, l’AI Act suit une approche de prévention de dommages, au moyen d’une série d’obligations pour les programmeurs et utilisateurs d’IA. Un humain présumé responsable pour un dommage causé par un système d’IA agissant seul pourrait-il se défendre et se délier de cette responsabilité, en se fondant sur le droit européen en matière de sécurité des produits ? Telle est la question posée par la contribution juridique et donc normative de ce numéro. Après avoir montré l’insuffisance des moyens de défense pour les programmeurs ou les utilisateurs de système d’IA dans ce domaine, l’auteur recherche les remèdes à cette insuffisance. Ce qui le conduit à aborder les grands thèmes de la responsabilité algorithmique en proposant que les IA avancées soient considérées, dans certains cas, comme des agents de fait et soient donc reconnues capables de causer préjudice à titre autonome, lorsqu’il est établi que, dans les faits, aucun humain n’est intervenu dans la survenance du dommage. Si la responsabilité de fait des systèmes d’IA semble de plus en plus admise dans la communauté des juristes, la responsabilité en droit (la réparation des préjudices causés) reste un enjeu fort des débats sur la régulation. En effet, les systèmes d’IA ne pouvant réparer les dommages qu’ils causent, il faut donc continuer de désigner des agents humains pour la réparation. Mais sur quel critère peut-on les désigner ? Sur ce point, l’étude articule une opinion déjà proposée en doctrine : le devoir de réparation incomberait à celui/celle qui aurait accepté le risque qu’un dommage se produise. La mise en œuvre de la responsabilité en droit en matière de système d’IA est une des pistes de recherche les plus urgentes pour les juristes.

Controverses, promesses et mobilisations

17 Au-delà des formes institutionnelles de régulation de l’IA, ce numéro de Réseaux propose aussi d’examiner la manière dont son développement s’insère au sein d’un ensemble de controverses, de promesses et de mobilisations. L’activité régulatrice se déploie en effet au sein d’un ensemble d’attentes, de critiques et de peurs qui constituent le réservoir normatif dont nos sociétés entourent la mise en place, présente ou future, de ces nouvelles entités. Que peut-on attendre des IA ? Quels bénéfices sont supposés apporter ces innovations ? De quels coûts ou de quels sacrifices doit-on s’acquitter pour cohabiter avec les promesses de l’IA ? Trois articles de ce numéro proposent des perspectives différentes pour observer la formation d’espaces normatifs dans lesquels les promesses et les réalisations de l’IA sont débattues.

18 Le premier est celui des médias. Les développements informatiques en intelligence artificielle ont toujours attiré de façon très vive l’attention des journalistes. La situation est assez rare pour être soulignée mais l’IA a souvent fait la une des grands titres de la presse, est entrée dans les programmes de partis politiques ou a fait l’objet de campagnes de pétitions avant même d’avoir une réalité concrète. Elle active si fortement un imaginaire dystopique que les médias se montrent particulièrement attentifs à suivre les péripéties de son déploiement. Pour le montrer, Maxime Crépel et Dominique Cardon proposent une cartographie des controverses autour de l’IA dans la presse anglo-saxonne à partir de méthodes digitales déployées sur un corpus de 29 342 articles publiés entre 2015 et 2019 (« Robots vs Algorithmes. Prophéties et critiques dans la représentation médiatique des controverses de l’IA »). En utilisant une méthode d’apprentissage automatique, ils ont procédé à la détection des 7 % d’articles ayant une coloration critique afin d’identifier les principaux objets de controverses entourant une gamme très ouverte de systèmes techniques qualifiés d’IA par les journalistes. L’intérêt de cette analyse est de différencier deux ensembles d’objets, les robots et les algorithmes, qui sont associés à des types de discours de presse très différents : la prophétie et la critique. Cette distinction éclaire sous un jour particulier une tension entre le présent et le futur, les enjeux ontologiques et les questions de justice. Un premier ensemble de discours critiques s’efforce de contrôler les risques futurs associés à l’autonomisation de robots intelligents alors que le second s’attache à contrôler les biais et les discriminations produits par les systèmes algorithmiques déjà en place dans de nombreux environnements socio-techniques. Si la philosophie et la réflexion éthique nourrissent la critique de la vie artificielle des robots, les enjeux politiques du contrôle des algorithmes s’alignent eux beaucoup plus clairement sur d’autres formes de régulation relatives au travail, aux enjeux de discrimination ou aux questions de transparence et d’asymétrie d’information et de pouvoir.

19 Même s’ils sont au cœur de l’analyse, les médias ne sont pas les seuls acteurs ayant contribué à l’ascension puis à la chute d’Element AI, l’entreprise lancée par Yoshua Bengio pour faire du Canada un des pôles dominants de l’intelligence artificielle mondiale. L’article que consacrent Jonathan Roberge, Guillaume Dandurand, Kevin Morin et Marius Senneville (« Les narvals et les licornes se cachent-ils pour mourir ? De la cybernétique, de la gouvernance et d’Element AI ») à cette aventure industrielle et politique est un drame en deux actes. Après avoir été estimé par certains à un milliard de dollars, Element AI sera discrètement revendu en 2020 pour un montant de 200 millions de dollars à l’entreprise américaine Service Now Inc. Ce récit est emblématique de l’histoire en montagnes russes de l’IA qui connaît depuis les années 1960 des moments de hype puis d’oubli. En documentant avec précision l’histoire de cette jeune pousse canadienne, les auteurs font apparaître l’immense capacité de persuasion dont cette innovation technologique est porteuse. Entièrement fondé sur la supercrédibilité de Yoshua Bengio – l’un des trois initiateurs du retour des réseaux neurones au début des années 2000 (Cardon et al., 2018) –, Element AI a été promu comme une recomposition innovante des partenariats public-privé permettant de rendre plus rapidement accessibles les avancées de la recherche vers des applications industrielles. Fierté nationale canadienne, esprit start-up de la Silicon Valley, attraction tous azimuts de financements privés et publics, la cristallisation euphorique qui s’est organisée autour d’Element AI s’est aussi appuyée sur un discours éthique, assurant développer une voie respectueuse et citoyenne dans la mise en œuvre de l’IA inspirée par la Déclaration de Montréal. Rien pourtant ne va fonctionner comme prévu. Les promesses entourant Element AI vont brutalement s’effondrer, défaisant un tissu de croyances, de financements et d’aménagements des règles publiques pour encourager cet écosystème. Cette histoire fait apparaître les technologies de l’IA du côté de la promesse et non des risques. Les performances obtenues par les techniques de deep learning sur les données calibrées pour la recherche ne peuvent être traduites aussi facilement qu’annoncé dans le monde des données des industriels et de l’administration. Mais les auteurs montrent surtout que, même en trouvant les arrangements les plus facilitants pour encourager son développement industriel, la traduction de la prophétie de l’IA en services opérationnels est incertaine et parfois improbable.

20 Enfin, c’est une analyse du travail et des mobilisations des travailleurs d’une plateforme de livraison chinoise, Meituan, que propose Ke Huang dans le dernier article de ce numéro (« Implications éthiques du système algorithmique et pratiques des travailleurs des plateformes de livraison de repas. Le cas de Meituan »). Cette étude de cas permet d’illustrer de façon sans doute beaucoup plus concrète que les réflexions éthiques autour des machines intelligentes comment les dispositifs d’IA s’inscrivent concrètement dans des espaces de critique et de mobilisation. Le système d’IA étudié par Ke Huang est l’algorithme qui organise la distribution des courses et le contrôle des délais de livraison d’un service de repas à domicile. Le débat qu’il suscite n’est ni éthique ni philosophique, mais s’ancre très concrètement dans les processus de rationalisation et d’intensification du travail mis en place par l’économie des plateformes. L’enquête ethnographique menée dans trois villes chinoises permet de faire apparaître les formes de résistance et les points de friction soulevés par les travailleurs pour demander des régulations spécifiques des plateformes. Le principal actionnaire de Metuan est le groupe Tencent et il a mis en place un système d’estimation du temps de livraison que l’entreprise tient secret. Population jeune, masculine, peu qualifiée et d’origine rurale, les livreurs de Meituan constituent une force de travail importante – 4,72 millions de personnes – mal payée et rendue dépendante des bonnes et des mauvaises notes que leur attribue l’algorithme de gestion des délais de course. Si l’analyse fait bien apparaître un système d’exploitation propre aux plateformes numériques dans lequel l’intensification du travail est une production conjointe des consommateurs et des intérêts économiques de la plateforme (Rahman et Thelen, 2019 ; Stark et Pais, 2020), Ke Huang montre aussi les formes de mobilisation contre l’algorithme de Meituan. Les livreurs organisent des pauses collectives en coupant le GPS ou en essayant de jouer avec les primes d’intempéries intégrées dans le calcul des courses afin de contraindre la direction à une discussion collective sur les règles de l’algorithme. Le contrôle de l’IA dans ce cas, comme dans bien d’autres qui sont en train de se présenter devant le régulateur, ne se joue pas sur la scène abstraite et universelle de l’éthique mais dans la négociation de règles spécifiques et professionnelles qui sont propres aux multiples domaines d’application dans lesquels l’IA est en train de s’insérer.

Comment gérer la diversité des produits culturels dans le monde numérique ?

21 On trouvera en Varia deux articles qui abordent une même question, celle de la gestion des biens culturels à l’ère numérique, du point de vue de deux acteurs bien différents : l’individu ordinaire dans un cas et le revendeur de biens d’occasion dans l’autre. Quentin Gilliotte (« Stock et flux »), tout d’abord, s’intéresse à des pratiques privées, celles du classement des biens culturels numériques. Contrairement aux biens physiques qu’on classe selon des règles communes à la plupart des espaces privés : taille, support, genre, auteur, dans le monde numérique, l’individu est le principal horizon des pratiques de classification des fichiers qu’il a utilisés. Ils sont le plus souvent ordonnés selon une logique nouvelle, celle de la gestion personnelle de sa propre consommation.

22 Le numérique bouleverse aussi l’activité des revendeurs de livres d’occasion. Vincent Chabault (« Des compétences marchandes face à la plateformisation d’un marché culturel ») a étudié comment le cadre nouveau de la plateformisation a transformé l’activité de ces acteurs méconnus de la vie culturelle. Les acteurs émergents n’achètent plus de stocks, ne cherchent plus à donner une cohérence à leur offre mais à revendre sur les plateformes des dons reçus par des particuliers, la constitution d’un assortiment est souvent déléguée à des programmes informatiques déterminant la valeur marchande potentielle d’une référence et donc la pertinence de la stocker au regard des concurrents et du rythme de leurs transactions pour cette même référence. La compétence traditionnelle de l’amoureux des vieux livres disparaît.

Notes

  • [*]
    Les usages concrets de l’IA se développent rapidement en médecine, et tout particulièrement en radiologie, comme illustré sur la page de couverture. Cette mammographie 3D analysée par le logiciel ICAD, donne un score de probabilité de cancer de 78 % dans la zone circonscrite par un trait. Ce cancer a été confirmé par l’analyse des tissus prélevés par biopsie.
  • [1]
    Il en existe d’autres : l’agence européenne des droits fondamentaux (FRA), l’Organisation pour la Sécurité et la Coopération en Europe (OSCE), le Partenariat Mondial pour l’Intelligence Artificiel (PMIA), la Banque Mondiale ou l’Organisation Mondiale de la Santé (OMS) sont autant d’autres organisations ayant produit des rapports ou des études sur « l’IA » pertinents, mais dont la portée demeure bien plus sectorielle. Le Parlement européen a également appelé dans une Résolution du 12 septembre 2018 à mettre en place une stratégie de l’UE pour les prohiber (cf. Résolution du Parlement européen du 12 septembre 2018 sur les systèmes d’armes autonomes (2018/2752(RSP)) – Accessible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_EN.pdf, consulté le 25 mai 2021) et a adopté une résolution le 20 janvier 2021 traitant notamment des applications militaires de l’IA (cf. Résolution du Parlement européen du 20 janvier 2021 sur l’intelligence artificielle : questions relatives à l’interprétation et à l’application du droit international (2020/2013(INI)) – Accessible sur : https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_FR.html, (consulté le 25 mai 2021).
Mis en ligne sur Cairn.info le 02/06/2022
https://doi.org/10.3917/res.232.0009
keyboard_arrow_up