top of page
Rechercher

L’IA en question: interview d'Anaïs Avila par Xavier Comtesse

Dernière mise à jour : 3 mars 2021

Aujourd’hui je reçois Anaïs Avila, jeune chercheuse, assistante-doctorante à la Faculté de Droit de l’Université de Genève et membre du Think Tank CODE_IA, pour un interview sur la responsabilité civile face aux agissements dommageables de l’IA.


La responsabilité civile d’une IA… c’est quoi ?


La responsabilité civile d’une IA fait référence à la responsabilité propre de l’IA, c’est-à-dire que l’IA serait personnellement, directement et pleinement responsable de ses actes. La responsabilité civile d’une IA n’existe pas (encore) à ce jour, puisqu’il faudrait que l’IA soit dotée d’une personnalité juridique. En effet, seules les personnes au bénéfice d’une personnalité juridique, à savoir les personnes physiques et morales, peuvent être appelées à répondre des effets de la responsabilité civile.


L’opportunité de la création d’une personnalité juridique d’un « troisième type » a déjà fait couler beaucoup d’encre. En effet, compte tenu de l’autonomie décisionnelle et de la capacité d’apprentissage des systèmes d’IA, certains auteurs, dont Alain Bensoussan notamment, prônent la création d’une personnalité électronique. L’idée est d’attribuer aux systèmes d’IA un statut juridique, comme on l’avait finalement fait à l’époque de la première révolution industrielle pour les personnes morales.


Selon les partisans de la création d’une personnalité juridique d’un « troisième type », attribuer un statut juridique aux systèmes d’IA permettrait de simplifier la recherche d’un responsable, puisqu’ils seraient considérés comme des personnes pleinement responsables de leurs actes. On passerait ainsi « d’une responsabilité du fait de l’IA à une responsabilité de l’IA ». A l’image de la personne morale, l’idée serait d’enregistrer les systèmes d’IA dans un registre public et de les doter d’un capital, grâce auquel ils pourraient indemniser les victimes auxquelles ils auraient pu causer des préjudices et assumer ainsi les conséquences de leurs actes.


Qui va prendre en charge le préjudice ?


En cas de préjudice causé par une IA, la recherche d’une personne responsable est indispensable, sans quoi la victime se retrouverait sans indemnisation, puisque l’IA est, du moins pour l’heure, dépourvue de personnalité juridique. Parmi les potentiels responsables, on compte notamment le concepteur de l’IA elle-même, le programmeur, le producteur du produit fini si l’IA est intégrée dans une structure physique (comme un robot ou un véhicule), l’utilisateur et/ou le propriétaire de l’IA.


En ce qui concerne le producteur du produit fini, le concepteur de l’IA et le programmeur, leur responsabilité risque d’être engagée si le préjudice est dû à une défectuosité du produit fini, à un défaut de l’IA elle-même ou à une erreur de programmation. La responsabilité de l’utilisateur et/ou du propriétaire pourrait, quant à elle, être engagée en cas d’utilisation non conforme ou encore en raison d’un apport de données biaisées. En d’autres termes, un préjudice causé par une IA peut résulter d’un défaut du système d’IA, auquel cas la responsabilité de tous les acteurs intervenus dans le processus de fabrication pourrait être engagée, mais il peut aussi provenir d’un apport de données ultérieur ou encore d’une mauvaise manipulation imputable à l’utilisateur et/ou au propriétaire.


Toutefois, l’opacité des algorithmes rend complexe la recherche de la cause du préjudice. En d’autres termes, le manque de transparence et la complexité des algorithmes utilisés ne permettent pas de remonter l’enchaînement des causalités et donc de déterminer la cause exacte du préjudice. En effet, les algorithmes d’apprentissage ont un raisonnement si obscur (phénomène de la boîte noire) que le processus ayant conduit au résultat est incompréhensible et ne peut pas faire l’objet d’une explication transparente. Même les concepteurs n’arrivent pas à justifier le raisonnement de l