CAIRN.INFO : Chercher, repérer, avancer.

1 On observe actuellement une volonté grandissante de doter des êtres artificiels (robots, agents virtuels animés, agents conversationnels) d’une forme d’intelligence sociale [1][1]Cet article a été écrit à partir de la contribution de…. Plusieurs chercheurs, notamment dans le domaine récent de l’informatique affective (affective computing) [2][2]Constitué autour du travail fondateur de Rosalind Picard au MIT…, poursuivent l’objectif de concevoir des dispositifs qui simulent à des degrés divers les interactions humaines. Selon l’anthropologue Denis Vidal (2012), plusieurs tentatives convergent « pour donner à des machines un statut identifiable à celui d’un agent “autonome” quand ce n’est pas, plus radicalement, celui d’une “personne” ». Orientés vers une variété d’usages (thérapie, éducation, assistance, travail, divertissement, etc.), ces agents artificiels intelligents peuplent progressivement nos environnements quotidiens (entreprises, institutions, espaces public et domestique).

2 La sociologie des sciences et des techniques a permis de prendre de la distance par rapport à deux types d’approches des entités non humaines (Latour, 1994 ; Thévenot, 1994 ; Dodier, 1997) : l’approche instumentalisante ou fonctionnaliste qui traite les choses comme un outillage invisible et fidèle de la raison instrumentale, comme un moyen d’action contribuant par sa fonction à l’exécution d’un dessein, et l’approche sémiologique ou culturaliste dans laquelle les choses sont traitées comme des signes qui connotent des cultures ou des positions dans l’espace social.

3 Ces travaux ont ouvert de nouvelles pistes d’enquête sur la réorganisation par les objets techniques des relations des humains entre eux et avec leur environnement. Madeleine Akrich (1987) a d’abord éclairé la possibilité que les non-humains tendent à faire agir les humains de certaines façons, à induire certains comportements, à travers la notion de « prescription ». Par la suite, l’analyse des usages s’est émancipée de l’opposition entre intention et prescription (Akrich, 1993) pour souligner la tension entre force de guidage et autonomie des objets (Dodier, 1997). En prolongeant la manière dont Gilbert Simondon (1989) a repensé le « mode d’existence » des objets techniques, Nicolas Dodier (1995) a montré comment les machines, dont les scripts prévoient à la fois marge de manœuvre et transgressions, ne sont jamais complètement ajustées ni finies. En s’appuyant sur la notion de « réseau socio-technique » forgée par Michel Callon et Bruno Latour (voir Callon, 2006), il a proposé celle de « solidarité technique » pour désigner la capacité des objets techniques à créer des liens entre des personnes selon des chaînes de dépendance réciproque.

4 Quels types d’interactions se nouent entre les humains et les êtres artificiels intelligents ? Comment la sociologie peut-elle étudier ces interactions ? Doivent-elles être appréhendées comme un simple simulacre d’interactions humaines ? Peuvent-elles être considérées comme le lieu où s’établissent des relations ? Cet article entend faire un état des lieux sur les travaux mobilisables en sciences sociales et proposer une orientation nouvelle pour construire cet objet de recherche.

5 Dans une première partie, on montre comment il est possible de s’appuyer sur plusieurs travaux qui remettent en cause une approche dualiste en termes de grand partage pour constituer l’ontologie non plus comme une visée, mais comme un objet. Ce qui amène, concernant les êtres techniques, à la proposition formulée originellement par Steve Woolgar (1985) de se défaire de l’objectif de distinguer l’homme et la machine.

6 Dans une deuxième partie, on rend compte des enquêtes existantes en anthropologie de la robotique sur les opérations de détermination ontologique des êtres artificiels. Ces travaux s’intéressent à l’anthropomorphisation des machines, c’est-à-dire à la transplantation de traits que nous attribuons spontanément aux êtres humains dans des machines (apparence, mouvements, intentionnalité, réactivité, formes d’expressivité). Ils montrent comment cette anthropomorphisation entraîne une modification de la notion de personne (Vidal et Gaussier, 2016) et s’attachent à décrire la manière dont les concepteurs et les usagers travaillent le périmètre de cette notion.

7 Cette littérature nous permet, dans une troisième partie, de souligner que la question de l’ontologie se pose au moment d’entrer en relation. Les opérations de détermination ontologique des êtres hybrides sont intimement liées avec le souci de trouver des modalités ajustées de cohabitation. On souligne notamment l’importance des interactions expérimentales sur le mode du « comme si » avec les êtres hybrides, ainsi que la manière dont ces interactions nous amènent à développer une certaine créativité relationnelle et sont susceptibles de reconfigurer nos modalités d’attachement.

8 Enfin, on propose d’enrichir ces travaux en prêtant davantage attention à la réflexivité ontologique des acteurs. Dans une perspective de sociologie pragmatique, on entend suivre les enquêtes auxquelles procèdent les acteurs pour qualifier le monde, en s’intéressant notamment à la manière dont ils constituent le social comme un objet d’enquête. Ce qui amène à s’interroger sur les pratiques ordinaires et spécialisées de naturalisation/dénaturalisation du monde social.

En finir avec le dualisme : faire de l’ontologie un objet

La remise en cause des grands partages

9 Plusieurs travaux ont remis en cause les divisions entre nature et culture, entre humain et non-humain, entre animé et inanimé, à la fois comme un donné et comme un outil de description du monde social. Donna Haraway (2003) a élaboré de manière pionnière le concept de « naturecultures » pour mettre en lumière la co-constitution, la co-évolution et la co-habitation entre les espèces, pour penser des relations dans lesquelles les partenaires ne préexistent pas à leur mise en relation, et plus généralement pour souligner le fait que « la chair et le sens, les corps et les mots, les histoires et les mondes » (p. 20) sont indissociablement entremêlés. Donna Haraway nous invite à nous montrer attentifs aux êtres hybrides, en s’appuyant sur les notions d’« ontologies émergentes » (Verran, 2001) et de « connexion partielle » (Strathern, 1991), de même qu’à accepter d’habiter la contradiction en refusant les formes de dualisme.

10 L’anthropologue Philippe Descola (2005) a également montré que la démarche du « grand partage » entre nature et culture, c’est-à-dire l’institution d’un monde de choses doté d’une factualité intrinsèque et d’un monde humain régi par l’arbitraire du sens, relève d’une ontologie « naturaliste » dont le caractère est à la fois localisé et partiel, d’un point de vue géographique et historique, ou pour le dire autrement qu’elle n’est qu’une ontologie parmi d’autres possibles (totémisme, animisme et analogisme), « qu’une des solutions historiquement observables pour prendre en charge l’articulation des humains et des non-humains » (Charbonnier, 2013, p. 94).

11 Dans son travail sur les interactions entre les vivants et les morts, et plus précisément sur la manière dont les morts « apostrophent » les vivants, Vinciane Despret (2015) identifie la coexistence possible entre plusieurs ontologies, comme la présence et l’absence, dans notre traitement des êtres problématiques. Elle souligne à partir de son enquête la nécessité de ne pas statuer sur le statut ontologique des êtres impliqués, de faire preuve de tact ontologique, de s’adresser à la situation là où les personnes situent leur expérience : de manière non binaire, jamais sur le registre du tout ou rien, en expérimentant « par le milieu » au sens deleuzien.

12 Ces travaux invitent à passer de l’ontologie comme visée dans une démarche philosophique à l’ontologie comme objet d’étude dans une démarche sociologique ou anthropologique (Holbraad, Pedersen et Viveiros de Castro, 2014). Comment constituer l’ontologie comme un objet ? Plusieurs travaux proposent précisément d’étudier les pratiques de détermination ontologique des êtres.

13 Dans son approche fondatrice en STS, Bruno Latour (1991) souligne que la division entre nature et culture, bien que dualité fondamentale dans la pensée moderne, ne doit pas être appréhendée comme une démarcation du monde supposée a priori. À partir de ce constat, il invite à étudier la production de la frontière entre nature et culture, en soulignant l’importance des objets matériels et des institutions dans l’affectation d’un hybride à une catégorie ou une autre. Pour étudier les interactions entre humains et non-humains, Bruno Latour (1988) invite à analyser les opérations de traduction pour « figurer ou défigurer, personnifier ou abstraire, incarner ou désincarner des acteurs » (p. 303).

14 Dans la lignée du travail de Bruno Latour, Sheila Jasanoff (2013) élabore une « grammaire de la co-production » pour travailler sur l’établissement des frontières entre nature et culture. Elle étudie notamment la co-production de la science et du droit, en analysant de manière symétrique ce que la science fait au droit et ce que le droit fait à la science. Cette approche permet de ré-ouvrir les partages stabilisés entre le social – « le monde que nous avons créé » – et le naturel – « le monde dont nous imaginons qu’il existe en dehors de nous » – pour appréhender cette frontière comme se redessinant continuellement (p. 84). Sheila Jasanoff propose d’étudier les liaisons qui existent entre le social et le naturel d’un point de vue cognitif, matériel et normatif, en prenant la division comme un point d’arrivée plutôt que comme un point de départ.

15 L’anthropologue américaine rejoint la proposition de Catherine Rémy et Myriam Winance (2010) qui, à partir de leurs travaux respectifs sur les relations entre les humains et les animaux et les rapports entre technologie et handicap, invitent à développer une sociologie des « frontières d’humanité » en considérant que la commune humanité constitue un point d’arrivée, un état à réaliser en pratiques et en situation. Dans cette perspective, le caractère humain constitue un accomplissement continu, qui est fait et défait localement, tout comme le genre chez Harold Garfinkel dans son étude du cas Agnès (2007).

Se défaire de l’objectif de distinguer l’homme et la machine

16 Concernant l’étude de l’intelligence artificielle, Francis Chateauraynaud se situe dans ce sillage lorsqu’il remet en cause l’unicité même de la machine, son existence en tant qu’entité cohérente. À propos de Marlowe, « sociologue électronique » (2012) conçu dans le prolongement du logiciel d’analyse textuelle des controverses Prospero, il souligne que « comme dans la plupart des systèmes “intelligents”, il n’y a pas un Sujet, un centre de décision unique, une “personnalité”, mais une foule de petits agents opérant à des niveaux divers. […] Le “Moi” de Marlowe et un Moi multiple » (2003).

17 Mais cette piste de recherche est véritablement ouverte à l’origine par Steve Woolgar (1985). Dans un article programmatique, ce dernier souligne l’importance de se défaire de l’objectif de distinguer l’homme et la machine. Cette approche qui consiste à différencier les capacités des machines intelligentes et des êtres humains, pour insister sur les limites des machines, est par exemple adoptée par Hubert Dreyfus (1984). Le philosophe se donne comme objectif de montrer pourquoi l’intelligence artificielle n’égalera jamais l’intelligence humaine, compétence pratique « intimement liée au fait qu’ils [les êtres humains] sont dotés de corps, toujours situés, qu’ils sont socialisés dans une culture donnée, et qu’ils sont capables ainsi de saisir un contexte global, de s’y situer et de lui donner sens » (Velkovska et Beaudoin, 2014, p. 105).

18 Cette approche est également adoptée par certains travaux en STS. Harry Collins (2000) s’intéresse ainsi aux « capacités des ordinateurs et leurs limites ». Il part du présupposé que « les ordinateurs, comme les autres machines, diffèrent des êtres humains », première phrase de son article (p. 21). Il met notamment en avant le fait que les êtres humains partagent une qualité fondamentale dont ne disposent pas les machines : la « socialité » (socialness), c’est-à-dire la capacité d’acquérir des habiletés pour lesquelles nous ne pouvons pas formuler de règles, et d’en user de façon créative.

19 Au contraire, Steve Woolgar (1985) propose de s’éloigner de cette perspective de recherche qui consiste à « développer une sociologie du même phénomène que celui que l’intelligence artificielle prend comme sujet d’étude » (p. 566). Il souligne les limites méthodologiques du postulat qui fonde cette approche, à savoir la possibilité de distinguer signes superficiels et réalité sous-jacente, à l’appui par exemple de la distinction entre action et comportement chez Harry Collins (2000). En effet, ce postulat invalide la démarche même d’observation en sciences sociales. Steve Woolgar invite finalement à prendre comme objet les distinctions qui caractérisent et soutiennent le discours sur l’intelligence artificielle plutôt que de prendre position dans les dichotomies qui sont mobilisées par les acteurs.

Enquêter sur les opérations de détermination ontologique : autour de l’anthropomorphisation des êtres artificiels

La remise en cause du piège anthropomorphique

20 Plusieurs travaux de sociologie des sciences et des techniques se sont intéressés aux représentations des utilisateurs qui étaient mobilisées dans la conception des objets, notamment à travers la notion de « script » élaborée par Madeleine Akrich (1987). Le « script » désigne un scénario qui se veut prédétermination des mises en scène que les utilisateurs sont appelés à imaginer à partir du dispositif technique. Cette perspective amène à soulever la question : quels types de scripts voyons-nous actuellement embarqués dans la conception des machines anthropomorphisées ?

21 Les travaux de Lucy Suchman (2004) soulignent une tendance chez les roboticiens à occulter leur contribution non seulement à la conception des robots, mais également à leur fonctionnement : les interventions des roboticiens et les dispositifs périphériques qui contredisent l’idée d’une autonomie du robot seraient laissés « hors cadre ». Dans la continuité de ces observations, le journaliste Nicolas Santolaria (2016) présente la conception de Siri comme partie prenante d’une « vaste entreprise de persuasion animiste » (p. 141) initiée par Steve Jobs, dans laquelle entre également la création de Pixar, spécialisée dans la prosopopée.

22 Néanmoins, plusieurs travaux anthropologiques récents ont permis de remettre en question la volonté chez les concepteurs de tendre un « piège anthropomorphique » (Vidal, 2012), c’est-à-dire de favoriser chez les usagers la confusion entre humain et non-humain.

23 Ces travaux s’appuient très souvent sur l’œuvre pionnière du roboticien Masahiro Mori qui a formulé une hypothèse de travail en forgeant le concept de « vallée de l’étrange (uncanny valley) », inspiré des travaux de Sigmund Freud sur la notion d’« inquiétante étrangeté » (1919) [3][3]L’article original de Masahiro Mori, intitulé « Bukimi no…. Cette hypothèse s’appuie sur la comparaison d’artefacts très hétérogènes d’un point de vue culturel et technologique : robot-outil, marionnette de bunraku (théâtre japonais), animal empaillé, robot humanoïde, ou encore main prothétique. Masahiro Mori étudie le degré de familiarité qui transparaît dans les réactions des individus face à ces entités et s’interroge sur la manière dont un robot doit être conçu pour être accepté par les humains. Son idée est que seuls les robots qui reproduisent certaines caractéristiques humaines sont en mesure de susciter la familiarité. Jusqu’à un certain point : s’ils imitent trop fidèlement l’humain, les robots provoquent un sentiment d’étrangeté. La multiplication des traits anthropomorphiques facilite donc les interactions, mais un trop grand réalisme génère le malaise face à un objet perçu comme monstrueux.

24 Ces travaux montrent que les frontières du robotisable et de l’artificialisable font l’objet d’une réflexion entre professionnels, d’une controverse au sein des champs de la robotique et de la création artificielle, et plus largement d’un débat social. Il existe des discussions sur l’émergence des « effets de personne » en création artificielle, l’« effet de personne » étant défini comme le sentiment d’être face à une entité dotée d’intentions (Vidal, 2016). Par ailleurs, si tous les roboticiens partagent l’évidence d’un futur partagé avec les robots, il existe de nombreuses divergences entre eux « sur la pertinence, la faisabilité ou la désirabilité des robots “sociaux” » (Grimaud et Vidal, 2012). Enfin, on observe un débat politique sur l’extension de la catégorie de personne à des non-humains (animaux ou robots), autour de la question de l’attribution de droits ou encore du transhumanisme (Dufrêne et al., 2016).

25 Nicolas Santolaria (2016) insiste sur le fait que Siri n’est accompagné d’aucun mode d’emploi, ce qui fait de l’assistant vocal « non pas un produit achevé, mais une potentialité évolutive » (p. 101), ce qui « nous invite à dépasser une vision fonctionnaliste appauvrie de la technologie » et nous met « dans la peau d’un Geppetto avec sa créature » (p. 104) au moment d’en explorer les potentialités. Le journaliste identifie deux modalités importantes visant à produire le sentiment d’être en présence d’une volonté qui n’entre pas en concurrence ontologique avec l’usager humain : l’erreur et l’humour. Ces deux traits permettent le « paradoxe absolu où, au travers d’une forme d’expression typiquement humaine, l’objet tout à la fois rappelle et invalide de lui-même son statut de machine » (p. 129).

26 Emmanuel Grimaud (2012) étudie quant à lui le cas de Paro, premier robot thérapeutique créé par l’ingénieur japonais Takanori Shibata en 1993 dans une perspective d’« animal therapy ». Prenant la forme d’un bébé phoque en peluche, Paro est conçu pour « calmer les fous, atténuer la solitude des vieux, apaiser les femmes enceintes ou accompagner les enfants handicapés » (Grimaud, 2012). Par l’apprentissage et la communication sensorielle, ce robot vise à initier une relation tout autre que la traditionnelle relation de commande : « je te mets en marche et tu obéis ». Cependant, l’ambition n’est pas de reproduire à l’identique la relation qu’on peut nouer avec un animal de compagnie. L’anthropologue identifie plutôt une opération d’« hétéromorphose » qui « consiste moins à passer à la moulinette de l’échelle humaine qu’à calibrer ses inventions aussi finement que possible pour que celles-ci viennent combler les trous de nos ontologies existantes ». En l’occurrence, il s’agit de concevoir un animal de compagnie qui ne meurt pas et n’impose pas les mêmes contraintes d’entretien qu’un animal vivant.

27 De manière similaire, Agnès Giard (2016) étudie la fabrique des « love dolls » au Japon. Elle insiste sur le fait que les concepteurs ne visent pas tant à imaginer des poupées qui se substitueraient à des compagnes, mais à produire un « simulacre d’être incomplet », un « espace qui invite l’humain à le remplir ». L’anthropologue observe que dans les magazines dédiés à ces love dolls, « aucune ligne de démarcation ne semble posée entre la poupée comme personne et la poupée comme chose ». Les deux ordres de description sont entremêlés : des photographies avec des mises en scène érotiques très réalistes coexistent avec des photographies techniques assorties d’astuces d’entretien.

La mise en lumière de pactes anthropomorphiques

28 Si les concepteurs ne sont pas motivés par la volonté systématique de favoriser la confusion entre humain et non-humain, les usagers ne se laissent pas non plus attirer par ce piège anthropomorphique. Dès la fin des années 1980, plusieurs travaux de sociologie des sciences et des techniques critiquent la notion de « projection anthropomorphique ». Bruno Latour (1988) s’insurge contre la tendance moralisatrice des sociologues à considérer des comportements comme le fait de parler à son ordinateur comme « une entrave scandaleuse aux frontières naturelles », comme une simple « projection d’un comportement humain sur un objet technique, froid et non humain » (p. 303). De manière similaire, après avoir souligné que « les repères de l’engagement de l’objet seront aisément traités non simplement comme des retours d’informations manifestant l’exécution d’une commande, mais comme des expressions d’émotions », Laurent Thévenot (1994) met en garde contre la tentation d’y trouver « les fondements pragmatiques d’une attitude qui pourrait être vue comme projection irrationnelle anthropomorphique ou animiste » (p. 88).

29 Dans la continuité de ces travaux, plusieurs recherches anthropologiques mettent en lumière des logiques de « pacte anthropomorphique » établies entre les usagers et les êtres artificiels. Cette notion est proposée par Denis Vidal (2012) pour décrire les interactions fondées sur l’apparence anthropomorphique sans postuler que ceux qui interagissent succombent à une forme d’illusion cognitive. L’anthropologue a d’abord travaillé sur le rapport des visiteurs aux statues en cire du musée Grévin. Puis il a étudié les interactions avec Nao, robot humanoïde crée en 2006 par la société Aldebaran, dans le cadre de la conception du robot assistant Roméo.

30 La notion de « pacte anthropomorphique » s’appuie sur la remise en cause de l’anthropomorphisme comme trait caractéristique de la petite enfance ou encore des cultures « primitives ». Cette hypothèse a par exemple été développée par Jean Piaget qui a affirmé qu’il existe un stade spécifique de développement psycho-cognitif des enfants, censé durer jusque l’âge de 4 ou 5 ans, au cours duquel ces derniers présentent une incapacité à faire la distinction entre les êtres animés et inanimés ainsi qu’une tendance significative à la pensée animiste, c’est-à-dire au fait de prêter des caractéristiques humaines (intentions, sentiments, humeurs et conscience) à leur environnement (objets et événements). À partir des années 1980, plusieurs travaux, et notamment ceux de Stewart Guthrie (1993), ont remis en cause cette idée de l’anthropomorphisme « comme ontologie spontanée et intuitive » (Vidal, 2012) qui témoignerait d’un état d’immaturité cognitive.

31 Ces travaux permettent de souligner plusieurs caractéristiques des opérations d’imputation d’humanité à des objets : leur réversibilité, leur gradation et leur ambivalence.

32 Premièrement, l’imputation d’humanité est réversible : elle n’est pas faite une fois pour toutes, elle peut être faite puis défaite de manière dynamique dans l’interaction. Dans les interactions avec Nao observées par Denis Vidal (2012), deux manières de concevoir le robot et d’en parler s’entremêlent : le robot comme artefact (espèce : machine – sous-espèce : robot) et le robot comme personne (espèce : personne – sous-espèce : robot). Emmanuel Grimaud (2012) observe également des opérations de promotion et de rétrogradation ontologique de l’objet qui semblent cycliques dans le cas des interactions avec des robots humanoïdes confusion initiale du robot avec l’humain, séparation de l’humain et du robot, confusions accidentelles. Selon lui, la « flexibilité d’usage » fait « qu’un robot peut être tantôt relégué au statut de dispositif de commande désincarné, tantôt assimilé à de l’humain sur le mode du “comme si” ».

33 Deuxièmement, l’imputation d’humanité ne fonctionne pas tant selon l’opposition binaire entre humain et non-humain que selon un continuum permettant des opérations de « gradation ontologique » (Grimaud, 2012) et des qualifications en termes de « quasi-humain » par exemple.

34 Troisièmement, l’imputation d’humanité peut être ambivalente : on peut considérer un objet comme étant à la fois humain et non-humain, une présence comme étant là et pas là, une interaction comme étant réelle et non réelle. Emmanuel Grimaud (2012) rappelle qu’un grand nombre d’attachements noués par les humains avec les choses se développent « en autorisant l’ambiguïté, le flou ou une certaine flexibilité qui permet de ne pas trancher une fois pour toutes sur leur identité ».

L’ontologie des êtres : une question qui se pose au moment d’entrer en relation

Le mode du « comme si »

35 Les travaux anthropologiques précédemment cités mettent en lumière une modalité structurante d’interactions entre les humains et les êtres artificiels : le mode du « comme si ». On fait comme si ce robot, cette statue de cire, cette poupée était un être humain. Agnès Giard (2016) souligne par exemple qu’il ne faut pas penser la love doll uniquement « comme un objet-compensation […], mais également comme un objet-simulation destiné à ceux qu’attire le “jeu du faire semblant” ».

36 Cette modalité d’interactions comporte d’abord une dimension « ludique » (Grimaud, 2012). Ainsi Denis Vidal (2012) appréhende-t-il la mise en scène de la confusion entre humains et figures de cire ou robots au prisme de la « capacité à jouer de manière impromptue de l’ambiguïté » plutôt qu’au regard de la simple opposition entre « résister à l’illusion » et « être dupé ».

37 Le mode du « comme si » relève également de la nécessité pragmatique. L’anthropomorphisme peut être considéré comme un « embrayeur » de « formes plurielles d’intentions et d’agentivité » (Despret, 2016, p. 37). Loin de s’apparenter à une confusion entre humain et non-humain, l’anthropomorphisme relève dans cette perspective de l’hypothèse interactionnelle. L’« extension aux non-humains des modalités interactionnelles propres au dialogue entre humains » (Airenti, 2012) est considérée comme un pré-requis pour initier la relation.

38 Cette analyse rejoint les observations de l’équipe de psychologues constituée autour de Clifford Nass à l’origine du paradigme CASA (« computers are social actors »). Ce paradigme indique que les individus adoptent des comportements sociaux avec les technologies, même lorsque de tels comportements ne coïncident pas avec ce qu’ils pensent des machines (Nass et Moon, 2000).

39 Cela amène à opérer une distinction « entre un anthropomorphisme représentationnel, risquant toujours d’être assimilé sur le plan épistémologique à une sorte de carcan cognitif, d’un anthropomorphisme interactif, considéré comme un instrument relationnel d’évaluation et d’ajustement aux objets qui nous entourent » (Grimaud et Vidal, 2012).

40 Les « effets de personne » produits en situation ne sont donc pas une simple affaire de perception, où l’attribution d’un statut ontologique est jouée à l’avance, mais procèdent plutôt selon une dynamique de recherche d’une relation ajustée, les problèmes d’imputation d’humanité et de cohabitation étant intimement liés.

La reconfiguration de nos modalités d’attachement

41 À travers son intérêt croissant pour la dimension émotionnelle ou affective des relations hommes-machines, la création artificielle explore « l’épaisseur relationnelle de la vie en société » (Grimaud et Vidal, 2012). Que ce soit à la frontière entre l’amitié et la fonctionnalité ou encore entre l’amour et le désir, l’apparition de compagnons artificiels instaure des agencements relationnels compliqués et ambigus. Plusieurs travaux ouvrent des pistes pour appréhender la dimension affective des usages de ces technologies et l’« attachement aux cyber-choses » (Abbou et Giard, 2017).

42 La conception du programme informatique Eliza est l’un des premiers lieux où la possible complicité entre un artefact relationnel et un être humain a été constatée. Entre 1964 et 1966, Joseph Weizenbaum a mis au point un agent conversationnel capable de simuler une capacité d’écoute à la manière d’un psychothérapeute (notamment par la formulation de relances). L’ingénieur a alors constaté ce qui sera par la suite appelé l’« effet Eliza » : sans se méprendre sur le statut d’Eliza, ses étudiants éprouvent une grande avidité à interagir avec le programme et une tendance à vouloir combler ses manquements. Depuis, plusieurs chercheurs se sont attachés à mesurer les sentiments suscités par les créatures artificielles. Cory Kidd (2008) entend par exemple montrer dans sa thèse comment les robots, par leur présence physique captivante, suscitent des sentiments plus intenses que les agents en ligne.

43 Des travaux anthropologiques, très contrastés dans leur posture, soulignent que la création artificielle produit des hybrides qui reconfigurent nos capacités d’attachement. Ce terme d’attachement est privilégié, car il est « suffisant vague pour permettre tous les degrés d’intensité, englobant aussi bien les relations les plus utilitaires aux objets, l’amitié ou l’amour de son prochain que les dépendances plus ambiguës ou difficiles à qualifier comme celles que l’on peut entretenir avec un ordinateur ou un animal de compagnie » (Grimaud, 2012). Dans la sociologie du goût élaborée par Antoine Hennion (2004), cette notion d’attachement permet également de se défaire de l’alternative entre l’idée que « l’objet contient ses effets » (p. 11) et l’idée que « les objets sont ce que nous en faisons » (p. 10) pour introduire la notion de « médiation », c’est-à-dire les « moyens qu’on se donne pour saisir l’objet » (p. 12).

44 L’anthropologue américaine Sherry Turkle (2015) s’est intéressée à nos modalités d’engagement avec les machines conçues « pour être avec nous » (p. 47). Elle a étudié les premières rencontres et les relations tissées sur un temps court entre des personnes à différents moments de leur cycle de vie (enfance, âge adulte, vieillesse) et des dispositifs variés (Tamagotchi, Furby, Aibo, Paro, My real baby, Cog, Kismet, Domo, etc.). Selon Sherry Turkle, on assisterait à l’émergence d’une « sensibilité bionique » (p. 72) avec l’arrivée de robots compagnons. Nos interactions avec les machines changeraient de nature : « la psychologie de la projection fait place à une psychologie de l’engagement » (p. 75) ; « on passe du simple test Rorschach à une véritable relation » (p. 159).

45 L’anthropologue identifie deux ressorts de cette évolution : premièrement, les robots sociaux nous invitent à prendre soin d’eux et « nous aimons ce dont nous prenons soin » (p. 64). Deuxièmement, ils s’adaptent à l’usager et développent une personnalité au fil des usages [4][4]Ce qui n’est pas sans rappeler la condition d’une temporalité…. Ces deux ressorts sont par ailleurs inscrits dans un contexte plus général caractérisé par un détournement vis-à-vis des « mécanismes intérieurs » et un intérêt grandissant pour les « mécanismes du comportement » (p. 93). Sherry Turkle défend l’idée que les robots sociaux nous invitent à nous attacher à eux et que ces attachements modifient notre façon d’être au monde. De manière très pessimiste, elle met en avant un risque d’appauvrissement des relations humaines, de « relâchement moral » (p. 204) qui se traduirait par une diminution de nos attentes à l’égard des relations humaines. La solitude dans la co-présence avec le robot, cet « amour à sens unique » (p. 215), changerait progressivement de statut : de substituable et choisi par défaut, le robot deviendrait égal voir préférable à une personne.

46 Certains travaux portent enfin plus précisément sur le cas des robots érotiques. Aux antipodes du pessimisme de Sherry Turkle, David Levy (2007) a affirmé de manière enthousiaste dans sa thèse de doctorat qu’il serait bientôt possible, et même courant, d’entretenir avec eux de fortes relations de dépendance affective.

47 De manière plus nuancée, Emmanuel Grimaud (2012) fait l’hypothèse que les relations entre les humains et les robots sont davantage susceptibles d’être le lieu d’une tension entre attachement et détachement. Selon l’anthropologue, on s’empare des capacités sensorielles des robots érotiques non seulement pour les confondre avec de l’existant, mais également pour « dépassionner certains objets, désincarner certains liens, et graduer toujours plus les relations qui les entourent ». Les progrès de la robotique nourriraient donc des pratiques de gradation des attachements. Plus généralement, nos interactions avec des agents artificiels nous inviteraient à explorer de « nouvelles gammes de relations » (Grimaud, 2012), à développer notre créativité relationnelle.

Suivre les acteurs dans leurs enquêtes : vers une sociologie de la réflexivité ontologique

Souligner la réflexivité des acteurs

48 Dans les travaux existants sur les interactions avec des êtres artificiels, la réflexivité des acteurs est parfois évoquée, mais jamais traitée de manière systématique, ni constituée comme un objet de recherche en tant que tel. Le mode du « comme si » revêt par exemple une dimension expérimentale : il fait de l’expérience une énigme (Despret, 2016). Il nous met dans la situation d’enquêter sur la consistance des effets émergents de personne dans nos interactions avec les objets (Dufrêne et al., 2016).

49 À cet égard, Sherry Turkle (2015) souligne dans ses observations des premières rencontres avec des robots sociaux que les usagers tentent de déterminer la nature de l’objet auquel ils sont confrontés. De la même manière, Nicolas Santolaria (2016) décrit Siri comme une invitation à une « réévaluation de nos certitudes anthropologiques » qui suscite une « perplexité ontologique émergente » (p. 14), ou encore comme un « étalon anthropologique puissant », un « objet-test » (p. 116).

50 Ces constats renvoient à la dimension morale de l’activité technique soulignée par Nicolas Dodier (1995) dans son ethnographie d’une entreprise industrielle à travers la notion d’« épreuve de soi ». Considérée comme un élément essentiel de l’activité des opérateurs, elle est mise en lumière grâce à une appréhension des relations avec les machines non seulement sur le registre du travail, mais également de l’action, c’est-à-dire comme une forme d’accomplissement de soi dans un espace public de jugement au sens de Hannah Arendt (Barthe, 1997).

51 En mettant en avant l’indétermination des relations entre robots et humains, les travaux anthropologiques existants indiquent également une certaine réflexivité émotionnelle chez les acteurs, sans toutefois soulever véritablement cette question. Ils notent que les progrès de la robotique consistent de plus en plus à « faire voisiner les humains avec des agents au statut flou, incertain, avec lesquels les modalités de coexistence ne sont jamais acquises d’avance » (Grimaud et Vidal, 2012).

52 D’un point de vue émotionnel, les situations d’interactions avec des agents artificiels sont susceptibles de générer des formes d’incertitude, voire de malaise explorées par la sociologie des émotions (Hochschild, 2003) : on ne sait plus quoi ressentir. Elles sont également susceptibles de nourrir des méta-émotions, des émotions sur les émotions, dont l’importance est soulignée par Eva Illouz (2016).

53 Il est fort possible que ces interactions, à l’instar des interactions avec les animaux domestiques, puissent générer une forte réflexivité, une interrogation sur la nature de la relation émergente, plutôt qu’un seul « narcissisme caninophile » dans lequel le non-humain est utilisé comme un outil de restauration de l’âme humaine par un amour inconditionnel (Haraway, 2003).

54 Les travaux existants pourraient ainsi être enrichis par une approche de sociologie pragmatique « qui rend justice à la réflexivité des acteurs » (Barthe et al., 2013, p. 187), quelles que soient l’intensité de cette réflexivité et la manière dont elle s’actualise (verbalisation, action sur l’action). Cette approche consiste à suivre les acteurs dans le travail d’enquête – au sens du recueil de données pour nourrir un questionnement – qu’ils sont amenés à produire quand ils sont confrontés à des situations problématiques (ou épreuves) dans lesquelles ce qui se joue n’est pas évident.

55 Dans son élaboration d’une sociologie des attachements, Antoine Hennion (2004) souligne par exemple l’importance de la réflexivité des personnes dans leurs rapports avec les objets. Ce dernier analyse le goût comme une « modalité problématique d’attachement au monde » (p. 9).

56 On peut faire l’hypothèse que les relations avec des êtres artificiels sont le lieu du déploiement par les acteurs d’une modalité d’enquête ontologique spécifique, caractérisée par une forte dimension exploratoire, au sens de l’expérimentation des possibles.

Le social comme objet d’enquête pour les acteurs

57 Plusieurs travaux s’attachent à saisir la réflexivité ontologique des acteurs, à rendre compte des enquêtes auxquelles ces derniers procèdent pour qualifier le monde, pour dire l’état des choses et des êtres. À partir de sa lecture des travaux d’Edouardo Viveiros de Castro, Pierre Charbonnier (2010) propose une redéfinition de la démarche anthropologique comme enquête sur « les conditions d’autodétermination ontologique des collectifs étudiés » (p. 7), en soulignant que toute société dispose de pratiques propres pour s’objectiver, pour déterminer ce qu’elle est. Dans le prolongement des travaux de Philippe Descola, le philosophe reprend la question des relations entre nature et société à partir du savoir anthropologique. Il montre comment « l’inscription collective dans la nature est saisie par les groupes humains comme un problème dont ils doivent s’acquitter pour exister comme tels » (Charbonnier, 2015, p. 141).

58 Dans une recherche antérieure sur le travail ordinaire de la pédopsychiatrie (Borelle, 2017), on s’est également intéressé aux situations de « tension ontologique » dans lesquelles les acteurs s’interrogent sur la nature des problèmes auxquels ils sont confrontés au cas par cas. On a montré comment les professionnels produisent un dualisme entre social et psychiatrique, dualisme également au fondement d’un grand nombre de travaux de sciences sociales.

59 On voit comment cette approche permet d’éclairer le social – ou le « collectif » au sens de Bruno Latour pour éviter toute forme de dualisme – comme un objet d’enquête pour les acteurs. Ce constat ouvre plusieurs pistes de questionnement. Il invite d’abord à enquêter sur les « sens du social », non plus pour la philosophie ou la sociologie (Cukier et Gaudin, 2017), mais pour les acteurs eux-mêmes : qu’est-ce que le social signifie pour eux ? Comment le social fait-il l’objet à la fois de catégorisations ordinaires et de savoirs spécialisés ? Comment, par exemple, l’interaction sociale est-elle modélisée en affective computing ? Il serait intéressant d’étudier la littérature existante dans ce domaine pour préciser la manière dont le social semble pensé en termes de signal.

60 Ce constat invite également à s’intéresser aux pratiques ordinaires d’établissement de la socialité, dans le prolongement de l’ethnométhodologie, mais en ajoutant une couche de réflexivité supplémentaire aux ethnométhodes : selon quelles modalités pratiques les acteurs s’établissent-ils comme des êtres explicitement sociaux ? Comment les acteurs élaborent-ils certains aspects de leur existence comme relevant du social ou non ? On pourrait par exemple enquêter auprès de concepteurs d’agents intelligents pour comprendre comment ils modélisent les comportements des utilisateurs à partir des neurosciences : dans quelle mesure la référence à cette discipline s’inscrit-elle dans une forme de dualisme entre cérébral et social ?

61 Ce constat invite enfin à s’interroger sur les frontières du social : comment le périmètre de la société est-il produit en pratiques et en situations ? Une piste d’enquête possible serait de s’intéresser, dans une perspective d’analyse des controverses, à la problématisation publique du statut des créatures artificielles à l’occasion d’une affaire récente, comme celle de l’ouverture de « X-Dolls » qui se définit comme la « première maison close 2.0 à Paris ».

62 Plus généralement, ces questions sont autant de manières de mener l’enquête sur la dénaturalisation du monde social, non pas en tant qu’elle est une opération nécessaire dans toute démarche de sciences sociales (Lemieux, 2012), mais en tant qu’elle est une opération maniée par les acteurs eux-mêmes, dans des contextes variés, selon des formes spécialisées ou ordinaires.

63 On fait l’hypothèse que l’introduction d’êtres hybrides constitue un point d’observation privilégié de cette réflexivité sur le social, voire que les interactions entre humains et êtres artificiels favorisent cette réflexivité sur le sens du social, sur la socialité et sur les frontières de la société.

Une invitation à la créativité méthodologique ?

64 On tente actuellement une première actualisation de ce programme de recherche en enquêtant sur le recours à des robots sociaux (Nao, Leka et Reeti) dans l’accompagnement d’enfants qui présentent un TSA (trouble du spectre autistique) au sein de différentes structures (instituts médico-éducatifs et hôpitaux de jour).

65 Le début de cette enquête (entretiens menés avec les professionnels et observation des séances de formation à l’utilisation du robot Leka) suggère que les professionnels tentent de bricoler de manière réflexive un statut ajusté pour le robot. Différents paradigmes d’usage sont élaborés : le robot peut être établi comme un interlocuteur pour l’enfant, comme un médiateur entre l’enfant et le professionnel, ou encore comme une extension de l’enfant. Les professionnels s’interrogent sur la façon de l’introduire auprès des enfants : faut-il présenter le robot et comment ? Doit-il être découvert déjà allumé ou bien sorti de sa boîte publiquement ? Les professionnels enquêtent sur les interactions qui s’établissent entre les enfants et le robot. Par exemple, ils observent comment les enfants orientent leur attention quand ils sont mis en présence du robot.

66 Cette recherche suggère qu’une démarche ethnographique attentive aux moments où les acteurs expriment des désaccords et des hésitations peut apporter un éclairage précieux sur les processus de qualification ontologique. Ce terrain d’enquête présente un triple avantage pour saisir empiriquement la réflexivité. Des acteurs s’emparent d’une technologie de manière expérimentale, pour voir ce qu’ils peuvent en faire. Ils sont amenés à se positionner les uns par rapport aux autres au sein de collectifs. Ils constituent les interactions entre humains et robots comme un objet d’observation et d’analyse. On est donc face à des acteurs qui exercent une réflexivité à la fois forte et verbalisée.

67 Néanmoins, la verbalisation n’est pas nécessaire pour saisir empiriquement la réflexivité des acteurs. En l’appréhendant comme une action plutôt que comme un processus intérieur, on considère que la réflexivité peut être saisie par l’observation et le récit d’anecdotes. Quand elle s’exprime à un degré moindre et se manifeste de manière plus discrète, on peut également envisager d’adopter une démarche vidéo-ethnographique (Velkovska et Zouinar, 2018).

68 L’approche ethnographique offre donc des outils de travail féconds pour notre programme. On peut tout de même s’interroger sur l’opportunité de déployer des formes d’expérimentation méthodologique pour saisir des pratiques plus intimes. Vinciane Despret s’engage par exemple sur cette voie en explorant des possibilités contrastées. Pour enquêter sur la réflexivité des scientifiques avec François Thoreau (2014), elle a mis au point un dispositif d’enquête qui relève de l’incident « diplomatique » au sens de Bruno Latour (2012). Ce dispositif consiste à offrir aux interviewés une déclaration de guerre assortie d’une offre de paix. Pour saisir les sens de la réflexivité auxquels tiennent les scientifiques, et pour éviter la tentation des sciences sociales de confisquer les usages de cette notion, il s’agit de renvoyer la question « c’est quoi la réflexivité ? » aux enquêtés en affirmant que les sociologues n’ont peut-être pas tort de penser qu’ils ne savent pas. À l’opposé de cette démarche d’enquête par provocation, Vinciane Despret s’est également engagée dans un « parcours instruit » entre septembre 2007 et septembre 2008 pour saisir « l’inventivité des morts et des vivants dans leurs relations » (2015, p. 35). Elle s’est laissée saisir, instruire et conduire par les acteurs selon différentes modalités : en écoutant leurs récits, en déambulant dans les liens et les mises en rapport qu’ils opéraient, mais surtout en se posant la contrainte de consigner et de suivre les conseils qui lui étaient faits – « tu devrais lire…, tu devrais voir…, tu devrais aller… » (p. 36) [5][5]Elle revendique ici une démarche s’inspirant de l’artiste….

69 Pour conclure, la diffusion croissante d’êtres artificiels intelligents dans divers domaines de la vie sociale pose problème à la sociologie. Comment appréhender les interactions qui se nouent avec ces agents ? Cet article propose de rendre compte des travaux qui peuvent être mobilisés pour construire cet objet de recherche. Cet état de l’art permet d’abord de souligner l’importance de constituer l’ontologie comme un objet en s’attachant à enquêter sur les opérations de détermination ontologique des êtres. En s’intéressant plus particulièrement aux travaux anthropologiques sur l’anthropomorphisation des créatures artificielles, il permet également de comprendre que ces opérations de détermination ontologique sont effectuées en vue de trouver des modalités de coexistence et d’établir des relations ajustées. Cette synthèse des travaux existants permet enfin d’ouvrir de manière programmatique de nouveaux questionnements. On propose de focaliser l’attention sur la réflexivité ontologique des acteurs, en s’intéressant notamment aux manières dont ils constituent le social comme un objet d’enquête quand ils conçoivent et s’approprient des agents artificiels intelligents. Ce programme de recherche ouvre plusieurs pistes d’enquête, auprès d’acteurs pluriels (concepteurs et usagers) et sur divers terrains (débats publics, littérature spécialisée, pratiques et interactions). Il invite tout autant à mobiliser les outils classiques de la démarche ethnographique (entretiens, observations, enregistrements vidéo, analyse documentaire) qu’à développer une créativité méthodologique en inventant des dispositifs d’enquête originaux.

Notes

  • [1]
    Cet article a été écrit à partir de la contribution de l’auteure à un rapport de recherche d’Orange sur la conception et les usages des agents « intelligents » (Borelle, Velkovska et Zouinar, 2018).
  • [2]
    Constitué autour du travail fondateur de Rosalind Picard au MIT (1995), ce domaine de recherche étudie de manière pluridisciplinaire (informatique, psychologie, sciences cognitives) les capacités des systèmes informatiques à reconnaître, exprimer, synthétiser et modéliser les émotions.
  • [3]
    L’article original de Masahiro Mori, intitulé « Bukimi no tani », est paru en 1970. On doit au roboticien Karl MacDorman la première traduction en anglais de ce texte à l’occasion d’un colloque de robotique en 2005. Ce texte a également été traduit en français par les anthropologues Emmanuel Grimaud et Denis Vidal dans un dossier consacré aux « Robots étrangement humains » publié en 2012 dans la revue Gradhiva.
  • [4]
    Ce qui n’est pas sans rappeler la condition d’une temporalité longue pour entrer dans le « traitement en personnalité des choses » au sens de Laurent Thévenot (1994), c’est-à-dire dans la possibilité pour une chose de maintenir une personne, de devenir le support de l’assignation d’une personnalité. De manière plus générale, la personnalisation des objets renvoie également à la théorie du « soi étendu », développée dans une approche marketing par Russell Belk (1988) et selon laquelle des objets peuvent devenir parties prenantes de l’identité individuelle.
  • [5]
    Elle revendique ici une démarche s’inspirant de l’artiste contemporaine Sophie Calle qui recourt à la contrainte pour vivre des expériences dans le cadre de protocoles très formalisés, ce qui a pour conséquence de réintroduire de l’imprévu dans la vie quotidienne (Méaux, 2012).
Français

On observe actuellement une volonté grandissante de doter des êtres artificiels d’une intelligence sociale. Quelles interactions se nouent avec ces êtres ? Comment la sociologie peut-elle les étudier ? Cet article fait un état des lieux sur les travaux mobilisables et propose une orientation nouvelle. On s’appuie d’abord sur les travaux ayant remis en cause une approche dualiste en termes de grands partages pour constituer l’ontologie comme un objet. On rend ensuite compte des recherches sur l’anthropomorphisation des machines qui proposent d’enquêter sur les opérations de détermination ontologique des êtres artificiels, du côté de la conception et des usages. Cette littérature permet de souligner que la question de l’ontologie se pose au moment d’entrer en relation, qu’elle est motivée par le souci de trouver des modalités ajustées de cohabitation. On propose enfin d’enrichir cette perspective de recherche en prêtant davantage attention à la réflexivité ontologique des acteurs.

Références

  • ABBOU J., GIARD A. (2017), « L’attachement aux cyber-choses : logiciels sentimentaux, love-bots et séducteurs de synthèse », Colloque, 15-16 juin, Université Paris Nanterre.
  • AIRENTI G. (2012), « Aux origines de l’anthropomorphisme. Intersubjectivité et théorie de l’esprit », Gradhiva [en ligne] vol. 15, n° 1.
  • AKRICH M. (1987), « Comment décrire les objets techniques ? », Techniques et culture, pp. 49-64.
  • AKRICH M. (1993), « Les objets techniques et leurs utilisateurs, de la conception à l’action », in B. Conein, D. Dodier, L. Thévenot, Les objets dans l’action, Paris, Éditions de l’EHESS, pp. 35-57.
  • BARTHE Y. (1997), « Nicolas Dodier, Les Hommes et les Machines [compte rendu] », Genèses, vol. 28, pp. 165-166.
  • En ligne BARTHE Y., DE BLIC D., HEURTIN J.-P., LAGNEAU E., LEMIEUX C., LINHARDT D., MOREAU DE BELLAING C., REMY C. et TROM D. (2013), « Sociologie pragmatique : mode d’emploi », Politix, vol. 3, n° 103, pp. 175-204.
  • En ligne BELK R. (1988), « Possessions and the Extended Self », Journal of Consumer Research, vol. 15, n° 2, pp. 139-168.
  • En ligne BORELLE C. (2017), « “C’est uniquement social”. Sur la production d’un dualisme social/psychiatrique en sciences sociales et dans le travail ordinaire de la psychiatrie », Politix, vol. 30, n° 117, pp. 201-222.
  • BORELLE C., VELKOVSKA J., ZOUINAR M. (2018), Personnalité, émotions et anthropomorphisme dans la conception et les usages des agents « intelligents », Rapport interne, Orange labs.
  • CALLON M. (2006), « Sociologie de l’acteur réseau », in M. Akrich, M. Callon, B. Latour, Sociologie de la traduction, textes fondateurs, Paris, Presses des Mines, pp. 267-276.
  • CHARBONNIER P. (2010), « L’Anti-Narcisse de Viveiros de Castro », La Vie des idées, mis en ligne le 15 avril.
  • CHARBONNIER P. (2013) « La nature est-elle un fait social comme les autres ? Les rapports collectifs à l’environnement à la lumière de l’anthropologie », Cahiers philosophiques, vol. 1, n° 132, pp. 75-95.
  • CHARBONNIER P. (2015), La Fin d’un grand partage. Nature et société, de Durkheim à Descola, Paris, CNRS.
  • CHATEAURAYNAUD F. (2003) « Alan versus Marlowe. Point de vue sociologique sur l’IA et son avenir », entretien sur le site mauvaisgenres.com.
  • En ligne CHATEAURAYNAUD F. (2012), « Une approche informatisée de l’expertise en situation de controverse. Marlowe, un sociologue électronique au cœur des humanités numériques », Experts, n° 100.
  • COLLINS H. (2000), « Les capacités des ordinateurs et leurs limites », Réseaux, vol. 18, n° 100, pp. 19-37.
  • CUKIER A. et GAUDIN O. (2017), Les sens du social, philosophie et sociologie, Rennes, Presses universitaires de Rennes.
  • DESCOLA P. (2005), Par-delà nature et culture, Paris, Gallimard.
  • DESPRET V. (2015), Au bonheur des morts. Récits de ceux qui restent, Paris, La Découverte.
  • DESPRET V. (2016), « “Comme si…” : des récits de présence », Persona. Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 35-37.
  • En ligne DODIER N. (1995), Les hommes et les machines, Paris, Métailié.
  • DODIER N. (1997), « Remarques sur la conscience du collectif dans les réseaux sociotechniques », Sociologie du travail, vol. 39, n° 2, pp. 131-148.
  • DREYFUS H. (1984), Intelligence artificielle : mythe et limites, Paris, Flammarion.
  • DUFRENE T., GRIMAUD E., TAYLOR A.C. et VIDAL D. (2016), « Qui est là ? Présences-limites et effets de personne », Persona. Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 11-17.
  • FREUD S. (1976) [1919], L’inquiétante étrangeté, Essais de psychanalyse appliquée, Paris, Gallimard.
  • GARFINKEL H. (2007) [1967], « “Passer” ou l’accomplissement du statut sexuel chez une personne “intersexuée”. Première partie », Recherches en ethnométhodologie, Paris, PUF, pp. 203-295.
  • GIARD A. (2016), « La love doll au Japon : jeux imaginaires, incarnation et paradoxes », Interrogations [en ligne], n° 23.
  • GRIMAUD E. (2012), « Androïde cherche humain pour contact électrique. Les cinétiques de l’attachement en robotique », Gradhiva [en ligne], vol. 15, n° 1.
  • GRIMAUD E., VIDAL D. (2012), « Aux frontières de l’humain. Pour une anthropologie comparée des créatures artificielles », Gradhiva [en ligne], vol. 15, n° 1.
  • GUTHRIE S. (1993), Faces in the Clouds. A New Theory of Religion, New York, Oxford University Press.
  • HARAWAY D. (2003), The companion species manifesto: Dogs, people, and significant otherness, Chicago, Prickly Paradigm Press.
  • En ligne HOLBRAAD M., PEDERSON M., VIVEIROS DE CASTRO E. (2014), « The politics of ontology: Anthropological positions », Cultural Anthropology website [online].
  • En ligne HENNION A. (2004), « Une sociologie des attachements. D’une sociologie de la culture à une pragmatique de l’amateur », Sociétés, vol. 85, n° 3, pp. 9-24.
  • HOCHSCHILD A.R. (2003), « Travail émotionnel, règles de sentiments et structure sociale », Travailler, vol. 1, n° 9, pp. 19-49.
  • ILLOUZ E. (2016), « Les émotions, catégorie ancienne et catégorie nouvelle de la sociologie », Congrès de l’AISLF, 4-8 juillet, Montréal.
  • JASANOFF S. (2013), Le droit et la science en action, Paris, Dalloz.
  • KIDD C. (2008), Designing for long-term human-robot interaction and application to weight loss, Thèse de doctorat, Cambridge, MIT.
  • LATOUR B., [JOHNSON J.] (1988), « Mixing humans and non-humans together: The sociology of a door-closed », The Sociology of Science and Technology, vol. 35, n° 3, pp. 298-310.
  • En ligne LATOUR B. (1991), Nous n’avons jamais été modernes. Essai d’anthropologie symétrique, Paris, La Découverte.
  • LATOUR B. (1994), « Une sociologie sans objet ? Remarques sur l’interobjectivité », Sociologie du travail, vol. 36, n° 4, pp. 587-607.
  • En ligne LATOUR B. (2012), Enquête sur les modes d’existence. Une anthropologie des Modernes, Paris, La Découverte.
  • LEMIEUX C. (2012), « Peut-on ne pas être constructiviste ? », Politix, vol. 4, n° 100, pp. 169-187.
  • En ligne LEVY D. (2007), Love and sex with robots. The evolution of human-robot relationships, New York, HarperCollins.
  • En ligne MEAUX D. (2012), « Les effets escomptés de la contrainte chez Sophie Calle », Nouvelle revue d’esthétique, vol. 1, n° 9, pp. 79-90.
  • NASS C., MOON Y. (2000), « Machines and mindlessness: Social responses to computers », Journal of Social Issues, vol. 56, n° 1, pp. 81-103.
  • PICARD R. (1995), « Affective computing », M.I.T Media Lab (Perceptual computing section) [online], Technical report, n° 321.
  • REMY C., WINANCE M. (2010), « Pour une sociologie des “frontières d’humanité” », Politix, vol. 2, n° 90, pp. 9-19.
  • SANTOLARIA N. (2016) ? « Dis Siri ». Enquête sur le génie à l’intérieur du smartphone, Paris, Anamosa.
  • STRATHERN M. (1991), Partial connections, Savage, Rowman & Littlefield Publishers.
  • SIMONDON G. (1989), Du mode d’existence des objets techniques, Paris, Aubier.
  • SUCHMAN L. (2004), « Figuring personhood in sciences of the artificial », Department of sociology [online], Lancaster University.
  • En ligne THÉVENOT L. (1994), « Le régime de familiarité. Des choses en personne », Genèses, n° 17, pp. 72-101.
  • THOREAU F., DESPRET V. (2014), « La réflexivité. De la vertu épistémologique aux versions mises en rapports, en passant par les incidents diplomatiques », Revue d’anthropologie des connaissances, vol. 8, n° 2, pp. 391-424.
  • TURKLE S. (2015) [2011], Seuls ensemble. De plus en plus de technologies. De moins en moins de relations humaines, Paris, L’Échappée.
  • VELKOVSKA J., BEAUDOIN V. (2014), « Parler aux machines, coproduire un service. Intelligence artificielle et travail du client dans les services vocaux automatisés », in E. Kessous, A. Mallard, La Fabrique de la vente. Le travail commercial dans les télécommunications, Paris, Presses des Mines, pp. 97-128.
  • VELKOVSKA J., ZOUINAR M. (2018), “The illusion of natural conversation: Interacting with smart assistants in home settings”, CHI, ACM, Montréal. https://voiceux.files.wordpress.com/2018/03/velkovska.pdf
  • VERRAN H. (2001), Science and an African Logic, Chicago, University of Chicago Press.
  • VIDAL D. (2012), « Vers un nouveau pacte anthropomorphique ! Les enjeux anthropologiques de la nouvelle robotique », Gradhiva [en ligne], vol. 15, n° 1.
  • VIDAL D. (2016), Aux frontières de l’humain, dieux, figures de cire, robots et autres artefacts, Paris, Alma.
  • En ligne VIDAL D., GAUSSIER P. (2016), « Ressemblances de famille et robotique humanoïde », in T. Dufrêne, E. Grimaud, A.C. Taylor, D. Vidal (dir.) Persona. Étrangement humain. Catalogue de l’exposition au Musée du Quai Branly, Paris, Actes Sud, pp. 235-236.
  • WEIZENBAUM J. (1966), « ELIZA. A computer program for the study of natural language communication between man and machine », Communications of the ACM.
  • WOOLGAR S. (1985), « Why not a sociology of machines? The case of sociology and artificial intelligence », Sociology, vol. 19, n° 4, pp. 557-572.
Céline Borelle
Suivre cet auteur Voir toutes ses publications
Orange Labs, SENSE
Cette publication est la plus récente de l'auteur sur Cairn.info.
Mis en ligne sur Cairn.info le 11/12/2018
https://doi.org/10.3917/res.212.0207
Pour citer cet article
Borelle Céline, « Sortir du débat ontologique. Éléments pour une sociologie pragmatique des interactions entre humains et êtres artificiels intelligents », Réseaux, 2018/6 (n° 212), p. 207-232. DOI : 10.3917/res.212.0207. URL : https://www.cairn.info/revue-reseaux-2018-6-page-207.htm
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...