En mars 2025, la Clinique juridique de l’université de Caen a organisé un procès fictif inédit confrontant les étudiants à un cas juridique sans précédent : un cyborg policier accusé de meurtre. Cette mise en situation soulève une question nouvelle, mais qui risque de devenir fondamentale dans une société où l’IA et la robotique occupent de plus en plus de place : les cyborgs doivent-ils être jugés comme des êtres autonomes et donc responsables pénalement en cas d’accidents, ou leurs concepteurs doivent-ils répondre de leurs actes à la place de leurs machines ?
Le statut juridique : une distinction fondamentale
En droit français, un robot n’est pas considéré comme une personne au sens juridique, qu’elle soit physique ou morale. Bien que l’idée d’une “personnalité électronique” ait déjà été évoquée, elle n’a jamais été consacrée en droit positif. Plus concrètement, un robot, même doté d’une intelligence artificielle avancée comme dans Detroit Bcome Human, ne possède pas de conscience au sens propre du terme, et fonctionne uniquement grâce à des algorithmes et des bases de données qui traitent l’information selon des paramètres préprogrammés.
Dans ce procès fictif, la situation est légèrement différente. Les cyborgs étant des êtres humains partiellement robotisés, ils conservent leur statut de personne physique, soulevant la question de leur responsabilité pénale. Cette distinction fondamentale entre robot et cyborg constitue le point de départ de toute réflexion juridique sur la responsabilité des entités robotisées, tout en mettant en lumière les problématiques juridiques et éthiques inhérentes aux lois de la robotique.
Conscience, libre arbitre et responsabilité pénale
La responsabilité pénale, particulièrement dans un cas de meurtre, implique une intentionnalité et une capacité à comprendre le bien et le mal. Pour des cyborgs, la question cruciale est de déterminer si l’implant cérébral altère la conscience en faisant obstacle au libre arbitre.
Contrairement aux humains, les robots fonctionnent par exécution d’algorithmes et ne font pas de choix véritablement conscients. Ainsi, lorsque le cyborg du procès fictif a tiré sur sa victime en raison de cris perçus comme une menace, s’agissait-il d’un biais robotique plutôt que d’un choix délibéré ? Cette frontière floue entre décision humaine et exécution algorithmique soulève des questions éthiques inédites, notamment lorsqu’un individu devient tributaire d’implants ou d’une IA intégrée.
Un méli-mélo juridique
En l’absence de responsabilité directe du cyborg policier, plusieurs acteurs pourraient être mis en cause. L’État qui autorise le déploiement de ces forces de l’ordre augmentées, la société conceptrice en cas de failles de programmation, ou le centre qui “forme” et stocke les robots… la chaîne de responsabilité illustre toute la complexité des enjeux juridiques liés aux systèmes autonomes, autant que l’importance d’établir un cadre légal clair.
Trois principes émergent de cette réflexion fictive menée par Maria Castillo, Maître de conférences en droit public à l’université de Caen Normandie et Amandine Cayol, Maître de conférences HDR en droit privé à l’université de Caen Normandie : distinguer clairement le statut juridique des robots et des cyborgs, développer des outils permettant d’évaluer l’impact des technologies sur le libre arbitre humain, et définir un réseau de responsabilités alternatives pour garantir la protection des citoyens.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.