Quel droit pour encadrer les robots ?
Santé, travail, tâches quotidiennes… Les robots deviennent incontournables. Au point qu’il est aujourd’hui urgent de légiférer sur la question.
Entre l’émergence des voitures sans conducteur, des machines automatiques à nourrir le bétail, des instruments médicaux intelligents, des robots de soin à la personne ou encore des appareils électroménagers sophistiqués, la robotique couvre aujourd’hui tous les domaines de notre société. Or cette utilisation croissante pose de nombreux problèmes aux législateurs, notamment celui de la responsabilité. À qui incombe la faute en cas d’accident ? Au robot ? Au producteur ? Au programmateur ? À l’utilisateur ? La commission juridique du Parlement européen s’est penchée sur la question en lançant un groupe de réflexion dirigé par la députée luxembourgeoise, Mady Delvaux-Stehres. Interview.
Comment la recherche scientifique influence-t-elle votre travail de législateur ?
Mady Delvaux : Il y a un peu plus de deux ans, j’ai participé à un séminaire au Parlement européen sur les grands défis que notre société aura à relever dans les prochaines décennies. La question du déploiement de robots y était abordée à travers le prisme d’un projet scientifique, Robolaw. Cette recherche, menée depuis 2014 par des experts d’un institut universitaire italien, la Scuola Sant’Anna de Pise, concerne la responsabilité des robots et d’autres aspects juridiques. Le sujet et les questions qui en découlent m’ont tout de suite fascinée. Comme la robotique se développe très rapidement, les politiques doivent absolument travailler main dans la main avec les chercheurs pour en accompagner l’essor. Aucun État dans le monde n’a encore légiféré sur ce point. Le Parlement européen est le premier à ouvrir le débat.
Pourquoi les robots ne sont-ils pas considérés comme les autres produits ?
Tout d’abord, il faut définir précisément ce qu’est un robot. Car ils relèvent de technologies très diverses. Un robot-aspirateur, par exemple, se distingue considérablement d’une voiture autonome, par ses fonctions et sa physionomie. L’intelligence artificielle de cette dernière est très avancée (Ndlr : Google a développé un véhicule électrique autonome, qui circule déjà dans plusieurs États américains. D’autres projets sont à l’essai, notamment en France, pour transporter les usagers des aéroports ou des hôpitaux). Sans conducteur, qui est responsable en cas d’accident ? Il faut trouver une réponse car la directive européenne sur « la responsabilité concernant les produits défectueux » n’est plus tout à fait applicable (Ndlr : cette directive indique que le producteur peut être responsable en cas de dommage à un consommateur, même s’il n’y a pas eu faute ou négligence de sa part).
Que préconise votre rapport ?
Son objectif est de débattre de la manière dont nous voulons vivre et interagir avec les robots, afin que les humains soient les gagnants de la robotisation de notre société.
À cet égard, notre projet insiste sur le fait que les robots sont et resteront des machines. Ce sont des outils créés pour être au service de l’humanité. Notre rapport traite notamment de l’utilisation des robots dans le monde du travail, de l’éducation, de la santé. Il aborde aussi des problématiques diverses comme la gestion et la protection des données ou la responsabilité.
Cette dernière question est même centrale. À long terme, la détermination de la responsabilité en cas d’accident deviendra de plus en plus complexe car les robots seront de plus en plus sophistiqués et autonomes dans leur prise de décision. Le rapport envisage deux systèmes de responsabilité. Le tout afin d’instituer un cadre légal qui régirait l’indemnisation des victimes.
Quelles sont ces deux possibilités ?
La première est le principe de responsabilité stricte : il s’agit de prouver que des dommages ont été causés par un dysfonctionnement du robot. Dans ce cas, nous sommes face à une responsabilité classique. Le robot est responsable, donc c’est la personne qui a contracté une assurance pour lui (son propriétaire, en général) qui doit indemniser les victimes.
La deuxième possibilité se base sur la gestion du risque. Elle se concentre sur la personne la plus à même de réduire les risques et de gérer les répercussions négatives de la machine. Dans ce scénario, c’est le producteur, qui a programmé le robot, qui pourrait contracter une assurance pour couvrir les risques. Nous demandons à la commission d’effectuer une évaluation approfondie afin de préciser laquelle de ces deux stratégies est la mieux adaptée.
Les questions éthiques relatives à l’interaction croissante entre les humains et les robots doivent aussi être étudiées et discutées. Prenons l’exemple de la réparation et de l’amélioration du corps humain, grâce à des prothèses toujours plus sophistiquées. Cela soulève des interrogations complexes, notamment celles liées au transhumanisme : quelles sont les limites à poser concernant l’amélioration des caractéristiques physiques et mentales ? Dans quels cas avoir recours à une prothèse ? Qui va prendre ces décisions? C’est pourquoi nous avons insisté, dans le rapport, sur l’importance de créer sans délai des comités d’éthique sur la robotique dans les établissements de santé. Leur rôle serait d’examiner et de répondre à tout problème épineux et inhabituel concernant des interventions ayant une incidence sur les soins et le traitement des patients.
La robotisation risque d’avoir des répercussions sur le monde du travail. Que prévoit votre rapport ?
Le développement de la robotique pourrait déboucher sur de grands changements sociétaux, notamment la création ou la disparition d’emplois dans certains domaines. Nous voulons encourager la commission à suivre de près ces évolutions et à ouvrir un débat sur les nouveaux modèles d’emploi et sur la viabilité de nos systèmes sociaux et fiscaux.
Quelle est la prochaine étape vers l’instauration d’un cadre légal autour de la robotique ?
Le rapport invite la Commission européenne à présenter une proposition législative. La Commission n’est pas contrainte de se conformer à cette invitation mais, si elle ne la suit pas, elle doit expliquer les raisons de son refus. Toutefois, je suis confiante : la Commission va proposer, le plus vite possible, un cadre légal autour de cet important sujet.
On reproche souvent aux politiques de ne pas réagir assez vite et de ne pas prévoir. Pour une fois que nous pouvons anticiper, faisons-le au niveau de l’Union européenne. Cela permettrait aux États membres de transposer, dans leurs législations, des principes communs.