Si l’encadrement juridique des robots mérite d’être étudié, le rapport législatif Delvaux qui traite la question au niveau européen manque sa cible.
Le projet de rapport de Mady Delvaux[1] a fait peu de bruit. Il pourrait cependant aboutir prochainement à une directive du Parlement Européen, contraignante pour les états membres, sur un sujet conséquent : le droit des robots. Le vote en Commission, fixé au 12 janvier, doit précéder le débat en séance plénière, lui-même prévu mi-février. Une prise de conscience s’impose, car ce texte apporte des réponses inadéquates et mal étudiées à de vraies questions.
Le droit des robots, une question légitime
Les robots désignent une réalité multiple et évolutive : automates industriels et chirurgicaux, robots d’assistance aux soins, robots de service ou « compagnons », exosquelettes, drones, prothèses robotisées, voiture autonome… Il s’agit bien d’un nouveau champ d’investigation pour le juriste, éloigné de celui de la science-fiction ; Il n’est pas neutre de mettre auprès d’une personne un robot capable d’interagir avec elle, de l’assister, de la surveiller, de la toucher. L’intégration de ce nouvel objet dans la société civile pose question, tant en terme de sécurité qu’en terme de responsabilité.
En quoi ce rapport est-il si alarmant ?
La question dont s’est emparée Mady Delvaux est capitale et pertinente, mais la réponse que propose son rapport semble financière, fiscale et idéologique ; elle fait fi du débat anthropologique et philosophique. Ce texte veut donner aux robots « intelligents » ou « autonomes » une personnalité juridique, les autoriser à remplacer les personnels de soins, médicaux ou de police, les rémunérer pour services rendus et constituer un fonds de compensation. Ce dernier serait destiné à réparer les dommages matériels et corporels que les robots peuvent causer, pour exonérer concepteur, propriétaire et utilisateur de leur responsabilité. Il défend par ailleurs l’absence d’incidence financière, tout en prônant la création d’une agence européenne pour la robotique et l’intelligence artificielle, et l’augmentation des aides de recherche et développement de l’Union européenne en robotique.
La lecture de ce rapport laisse penser que les auteurs ont voulu s’emparer d’un sujet parce que la réalité de la science a rattrapé la fiction, mais sans disposer des compétences techniques nécessaires pour l’appréhender. Les références fréquentes à la science-fiction, plus abondantes que les données scientifiques, décrédibilisent le propos. Il n’est fait aucune mention des normes internationales ISO[2] qui traitent pourtant de la robotique depuis de nombreuses années. En outre, le rapport reste flou quant à la définition du mot « robot », de son « intelligence » ou encore de son « autonomie ». Nul ne sait à partir de quand l’intelligence devient « autonome »…
Une personnalité juridique pour les robots ?
Créer une personnalité juridique[3] pour le robot, c’est faire de lui une « personne électronique », lui donner des droits et des devoirs, lui permettre d’agir en justice, tant comme plaignant que comme accusé. Les auteurs du rapport raisonnent comme si la responsabilité des robots autonomes les plus sophistiqués et les plus intelligents, considérés comme indépendants de l’humain, ne relevait que d’eux-mêmes. Or la responsabilité est une obligation juridique qui est propre à l’homme, sous sa forme physique ou morale. Attribuer une responsabilité à un robot, créer un régime d’assurance propre implique une sorte de personnalisation, une humanisation du robot, qui déresponsabilise l’humain qui le fabrique ou l’utilise. En outre, autoriser le remplacement des personnels de soins par les robots, sans rien proposer pour le contrer, entérine cette déshumanisation. L’expérience est risquée, elle atténue toujours plus la distinction entre l’homme et la machine dans une vision transhumaniste qui relève de l’idéologie.
Mettre en place un cadre juridique pour les robots est urgent, mais il ne peut s’exonérer d’un débat bioéthique. S’interroger sur la personnalité juridique des robots met en jeu la définition de ce qui est humain et de ce qui ne l’est pas. Or la technologie doit demeurer au service de l’homme parce que les robots restent des objets fabriqués par l’homme. Le rapport législatif Delvaux fait l’objet de 386 amendements, qui seront portés au vote le 12 janvier : les députés européens sauront-ils protéger la dignité première de l’homme et sa liberté ?
Note Gènéthique :
Ce dossier est particulièrement suivi par Europe for Family[4], dont l’équipe est présente à Bruxelles. Pour plus d’informations et pour agir, vous pouvez les contacter directement à [email protected].
Source généthique.org
Plus d’articles sur Gènèthique :
- La robotique, un progrès inéluctable pour une « humanité durable » ?
- Le droit des robots fait débat
- La personnalité juridique des robots en question au Parlement européen
Photo : Pixabay/DR
[1] Rapport Delvaux – Règles de droit civil sur la robotique – 2015/2103 (INL)
[2] ISO 8373-2012
[3] Le droit actuel distingue deux types de personnalités juridiques : les personnes physiques et les personnes morales. A ce titre, elles sont sujets de droit, c’est-à-dire qu’elles ont des droits et des obligations.
[4] Europe For Family promeut la famille Père-Mère-Enfant et les droits de l’enfant auprès des institutions européennes et, à ce titre, défend l’être humain face aux machines.