Pour sûr : une IA forte bouleverserait en profondeur nos sociétés !



Interview de Nicolas Capt par Xavier Comtesse

Membre du groupe de réflexion Code-IA, Nicolas Capt est un de nos plus brillants avocats. Initiateur des journées « Artificial Intelligence Geneva Summit », il est spécialiste en droit des technologies de l’information. Il intervient régulièrement dans les médias sur des sujets ayant trait au bouleversement sociétal induit par les nouvelles technologies notamment de l’IA.

Quatre questions à notre invité :

L’IA peut-elle un jour avoir de l’empathie ou une certaine forme de conscience ?

Poser la question de l’empathie et de la conscience, c’est en réalité convoquer la notion même de vie. De fait, il n’y a pas d’empathie véritable sans souffle vital. Les robots de compagnie qui trainent leurs yeux clignotants sur roulement à bille dans les couloirs tristes des établissements médico-sociaux sont de bien piètres ersatz de l’empathie véritable. La difficulté sera toujours de distinguer ce qui relève de l’imitation (c’est le cas de toutes les IA à ce jour) de ce qui relèvera, peut-être, d’une réalité autonome. Le jour où les robots pleureront, qu’ils auront le vague à l’âme, qu’ils seront amoureux ou s’angoisseront devant l’idée de leur (non) finitude, la question se posera en d’autres termes. Il y aurait certes une forme de poésie décadente à l’avènement de telles machines mais, en toute franchise, il y a quelque chose d’éminemment inquiétant dans l’idée même de confisquer, au Créateur ou à la nature, la création d’êtres vivants auxquels nous pourrions, en théorie, être amenés à conférer des droits qui, de toute l’histoire du genre humain, n’ont été attribués qu’aux êtres humains ou, dans une moindre mesure, aux animaux.

Parler, en 2020, d’établir une Charte du droit des robots est une vaste fumisterie qui vise à émouvoir, sans substance ni raison, le chaland, et à l’émoustiller avec des frissons à bon compte. Aujourd’hui, l’intelligence artificielle dite forte n’existe tout simplement pas. A moyen et long terme, les prévisions sont évidemment plus hasardeuses mais disons que, malgré les avancées de la recherche, nous sommes encore bien loin de l’empathie et de la conscience. Si nous devions y arriver, nos sociétés humaines subiraient un choc civilisationnel d’une ampleur tout à fait inédite dont les conséquences seraient dès lors parfaitement imprévisibles.

Quel niveau d’autonomie aura-t-elle ?

La question de l’autonomie est intéressante, puisqu’une intelligence artificielle dite forte n’est évidemment pas concevable sans autonomie, tandis, qu’à l’inverse, une intelligence artificielle peut fort bien être autonome sectoriellement sans être pour autant être considérée comme une IA forte. En d’autres termes, l’autonomie est nécessaire mais pas suffisante.

Si l’on reprend le modèle classique de la manufacture d’épingles qu’Adam Smith expose dans ses « Recherches sur la nature et les causes de la richesse des nations », l’intelligence artificielle (faible) spécialisée, ce serait au fond celle qui accomplit bien la tâche spécifique, qui émoud le bout de l’épingle comme personne ou, plus impressionnant pour les foules, qui bat à plate couture l’humain au jeu de go ou aux échecs. Mais qui n’a aucune conscience de sa propre existence et est incapable de ressentir le moindre sentiment. L’intelligence artificielle forte, c’est celle qui accomplira toutes les étapes de la fabrication de l’épingle et qui, en sus, fera grève, se révoltera ou aura la vague à l’âme. La vraie autonomie entraîne avec elle la conscience de soi et tout ce qui s’ensuit. Il est illusoire de penser qu’une éventuelle IA forte ne sera qu’un robot servile, qu’il soit matérialisé ou dématérialisé.

Il y a un saut énorme entre la plus perfectionnée des IA faibles sectorielles et une IA qui ressentirait le moindre sentiment ou aurait la moindre conscience d’elle-même et que l’on pourrait dès lors qualifier, sans rougir, de forte. On abreuve actuellement le bon peuple d’IA à bon compte, on obtient les vivats de la foule pour des assistants vocaux qui sont capables de faire croire à leurs interlocuteurs qu’ils sont humains, en singeant benoîtement les silences et les « euh » de l’imperfection téléphonique de nos semblables. Or non seulement ces logiciels n’ont-ils qu’une compétence terriblement partielle (ils sont en mesure de réserver un rendez-vous chez le coiffeur ou une table au restaurant mais incapable de former d’autres requêtes basiques qui sortent de l’ordinaire) mais, en plus, ils n’ont aucune conscience de ce qu’ils font. C’est la version moderne du chien savant, sachant moult tours, mais les exécutant sans jamais chercher à les comprendre.

Les recherches fondamentales visant à faire émerger une timide IA forte, attirent moins la lumière puisqu’à l’heure actuelle, elles n’ont pas – encore – la capacité de se parer d’habits de scène et que les progrès sont, faut-il l’avouer, éminemment lents. Mais le champ de recherche est fascinant puisqu’il ne procède pas de l’imitation servile et qu’il vise à asseoir l’émergence d’une nouvelle forme d’existence sur d’autres bases.

Pour l’heure, les IA faibles mais astucieusement mises en scène ont la cote et constituent la représentation de l’IA par le plus grand nombre.

Dans les projections fictionnelles, le film Her (Spike Jonze, 2013) demeure le modèle du genre. On y voit une assistante personnelle dématérialisée (dont la voix est campée par Scarlett Johansson) prendre peu à peu de la place dans la vie de son détenteur, jusqu’à devenir sa petite amie virtuelle. Diablement efficace, le film pose les questionnements sans y répondre : où est l’illusion, où est la réalité, quelle est la part de projection de l’humain ? Dystopie ou anticipation ? Difficile de répondre à ce stade. Une seule certitude : une IA forte bouleversera durablement et en profondeur nos sociétés et nous fera affronter comme jamais auparavant la peur du vide et de la vanité de nos existences.

Faudra-t-il lui donner un jour une identité juridique à l’IA ?

L’identité juridique ne se confond que très partiellement avec les droits et obligations. On peut parfaitement imaginer que, par exemple, pour des questions d’assurance, les véhicules autonomes doivent porter un numéro de série à des fins d’identification mais aussi, peut-être, d’indemnisation. Il y aurait alors une certaine similarité avec d’autres entités fictionnelles, comme les personnes morales, par exemple. Des entités fictionnelles à qui, en revanche, nous n’avons pas de velléités de prêter le souffle de la vie. La comparaison s’arrête donc là.

L’idée d’une véritable personnalité juridique est évidemment toute autre. Elle n’a de sens que si émerge réellement une nouvelle forme de vie, seule à même de justifier l’octroi de droits à son bénéfice direct et exclusif. En 2020, je suis d’avis que les discussions sur une Charte des droits et devoirs du robot sont, au mieux, une fantaisie, au pire une tromperie. Quel sens aurait-il à interdire le démembrement d’un robot matériel ? Aucun si le robot ne ressent pas de souffrance et n’a pas de conscience de lui-même. C’est aussi insensé que d’interdire de démonter un grille-pain. Et si l’on vous rétorque que c’est en réalité l’humain que l’on protège (par effet d’imitation), alors l’on ne parle pas des droits des robots mais des droits de l’humain. Vous l’aurez compris, j’ai une position peut-être ambivalente sur le long terme (je n’exclus pas le survenance d’une IA forte) mais je combats les illusions et la poudre aux yeux des marchands de rêve. Ainsi, la personnalité juridique du robot n’aurait-elle de sens que si une intelligence forte devait advenir, que son sourire ou sa tristesse nous émeuve, que sa condition nous afflige et qu’elle ait elle-même des angoisses existentielles, qu’elle se sente mal dans sa peau de fer, pour les robots matériels, ou de bits pour les robots conversationnels. Là, la question se posera. Et nous vivrons alors des temps difficiles. Mais de faire croire aux bons citoyens que le robot Sophia est un premier pas dans la direction de l’IA forte et que l’attribution de la citoyenneté par l’Arabie Saoudite en est la preuve, me désole. Et encore davantage que les médias se soient enflammés, sans honte ni recul, pour cette bien piètre opération de communication sur un chien savant à la tête d’Audrey Hepburn. Certains journalistes se sont ensuite même interrogés sur le fait de savoir si Sophia pouvait se marier ou si l’arrêt de son système interne pouvait être considéré comme un meurtre. Les questions sont à vrai dire si gênantes qu’elles ne souffrent pas de réponse. Comme dirait le jeune influenceur – et astucieux provocateur – suisse Jean-Pierre Fanguin, « je crois que la question elle est vite répondue ». Sophia ne comprend rien, ne ressent rien. Elle ne peut pas se marier, elle appartient à son propriétaire, on peut la désactiver à loisir sans risquer de finir à l’ombre. Ce qui est stupéfiant, c’est de constater que c’est le seul anthropomorphisme qui a suscité ces questions. Si Sophia était constituée d’un cube, on n’aurait jamais frôlé le ridicule. On aurait réalisé que de demander si démonter un grille-pain est un homicide était un motif légitime pour finir sans délai dans une maison de santé mentale.

L’anthropomorphisme est, quant à lui, un enjeu très actuel. Les robots de compagnie, mus par une intelligence artificielle faible, perroquets évolués, font toutefois courir un grand péril aux pensionnaires fragiles. Non parce qu’ils auraient la moindre conscience d’eux-mêmes mais du fait que leur apparence vaguement familière - et qui fait appel au robots rêvés d’une science-fiction désuète – rassure. On se confie aux yeux bleus doux du robot, on s’émeut de sa bouche qui pend, on prend sous son aile ce drôle de R2D2. Sa présence rassure ; il est un supplétif des attentions que les proches – trop occupés – n’accordent plus aux personnes âgées, ou seulement aux fêtes usuelles, pour la bonne conscience sociale. Or ces robots collectent quantité de données personnelles de secrets, de parts d’intime. Et ce sans que les pensionnaires ne le réalisent. Les robots empathiques – ou plutôt les robots à qui les utilisateurs prêtent – à tort – une empathie même embryonnaire, constituent ainsi un danger méconnu de nos sociétés connectées.

Garderons-nous un contrôle sur elle, de quelle manière ?

Tout dépend du scénario envisagé. Tant que nous parlons d’IA faible, nous parlons d’un grille-pain. Il n’y a pas d’autonomie générale, le robot n’est pas mû par ses désirs ou son instinct de vie. Il y a donc un contrôle possible et au fond, on peut allumer ou éteindre l’IA comme on éteint un poste de télévision. Mais attention, le contrôle porte sur l’IA elle-même, non sur ses productions. On sait ainsi que l’on peine à comprendre la chaine décisionnaire de l’IA. L’interprétabilité et la prévisibilité des algorithmes sont des sujets complexes, au point que l’on parle souvent de « boite noire » s’agissant des réseaux neuronaux. Pour le cas où une IA forte devait advenir, la question du contrôle se poserait évidemment en d’autres termes. Le contrôle se confondrait alors avec une lutte, cas échéant violente. Quel être autonome et conscient de lui-même accepte son asservissement ? Le parallèle avec les animaux est à cet égard recevable, avec la précision que l’IA forte pourrait être dotée de capacités de calcul - et donc de réflexion logique - sans commune mesure avec l’intelligence humaine. Si l’on part du principe que la loi universelle de la jungle, soit celle du plus fort, continuera d’avoir cours, il y a des raisons d’être inquiets. Encore une fois, vu de l’an 2020 et puisque rien ne dit qu’une IA forte verra le jour, ces prédictions relèvent de la futurologie la plus complète mais rien n’empêche de se poser, déjà à ce stade, quelques interrogations essentielles.


Photo Moose Photos

224 vues

©2020 par Empowerment foundation