Version complète d'un article sur le Droit des Robots paru dans le Journal du Barreau de Marseille (2-2016 p. 35)  https://www.barreau-marseille.avocat.fr/Flip/2016/n2/#36

Si certains l’entendent comme la nécessité d’adapter le droit à l’apparition des robots et d’autres, de donner des droits aux robots, il faut commencer par clarifier ce que le terme robot représente dans les évolutions techniques les plus récentes et donc à quoi le droit devra faire face et s’adapter. Cela induit de déconnecter le mot robot de l’image d’une machine humanoïde, plus ou moins pataude, qui a été popularisée par des œuvres cinématographiques qui ont maintenant plus de cinquante ans mais qui est toujours promue par la presse ...  les robots interagiront avec nous mais, la plupart du temps, nous ne les verrons pas.

Le bon exemple est celui du GPS.  C’est, pour l’instant, un outil spécifique, à programmer sans erreur pour ne pas se retrouver dans un lieu dont seul le nom est proche de celui de la destination et si vous vous trompez, vous ne pouvez vous en prendre qu’à vous-même. La robotisation, ce sera de laisser le véhicule choisir la destination, sur une instruction verbale et subjective : « je vais rencontrer telle personne ; je veux une plage où il y a des douches » puis vous y amener de façon autonome. Mais alors qui sera responsable de l’erreur ?

Quelque puisse être la définition du dictionnaire, aujourd’hui les « robots » ce sont des programmes informatiques qui se différencient de ceux qui les ont précédés par des calculs dont le résultat n’est pas prédéfini par leur concepteur mais adapté et interactif avec l’environnement et les situations auxquelles on les confronte. Cela peut s’appeler intelligence artificielle, voiture autonome, chatbots, drone, Deep learning, algorithmes prédictifs, blockchain… Ces technologies sont en tests ou en fonction et le principe commun est de l’imiter l’intervention humaine pour affronter des situations toujours plus complexes.

Tant que le lien entre la mise en œuvre d’un système et les actions de celui qui l’a programmé ne se rompt pas, la réponse juridique reste maitrisée, au préalable par le contrat ou a postériori par le contentieux, en arbitrant des choix tels qu’obligations de résultats ou de moyens. La question est de savoir si, en repoussant toujours plus l’autonomie de décision du système, le lien va se rompre. Le tout dans le contexte contradictoire d’une évolution de la société qui admet toujours moins l’aléa et qu’il n’y ait pas de « responsable ».

Dans le droit positif, la rupture du lien est peu probable. Pas plus que pour les évolutions technologiques précédentes, le droit et le système judiciaire auront rarement des difficultés à traiter de tels cas ; le « vide juridique » n’a jamais existé, le déni de justice est prohibé et le dernier intervenant de la chaine de programmation, celui qui aura « lâché la laisse » du robot, sera « le » responsable. A lui d’appeler en cause qui bon lui semblera et surtout, qui il pourra.

Sauf que cela bloquera le développement de ces technologies, comme la jurisprudence qui rendait responsable les intermédiaires de l’internet pour tout ce qui était publié a nécessité une intervention législative, la loi du 21 juin 2004 pour la confiance dans l'économie numérique, pour offrir un cadre de responsabilité adapté aux hébergeurs et aux fournisseurs d’accès et leur permettre ainsi d’investir dans le développement des réseaux.

Certains appellent à l’apparition d’un cadre règlementaire particulier, d’un régime spécial ou sui generis de responsabilité, fondé sur une nouvelle catégorie de personne que serait ces robots.  Non seulement cette vision romantique mais surtout anthropomorphique a peu de chance de voir le jour, mais elle n’est probablement pas souhaitable car cela revient à enlever la seule possibilité de maîtriser cette évolution scientifique au travers justement l’application d’un droit, le plus « commun » possible, qui est seul à même de maintenir le lien qui oblige à ce que les « créations » soient responsables car leurs concepteurs le demeurent.

Comme ces progrès sont aussi souhaitables qu’inévitables, il est nécessaire que s’engage au plus vite une réflexion qui doit porter non sur un nouveau droit mais sur le risque acceptable pour chaque amélioration de la fiabilité d’une technologie. C’est de cela que pourra être dégagé un cadre jurisprudentiel ou législatif spécifique.

Sans pouvoir deviner totalement ce qui en résultera, on peut déjà gager, sans prendre trop de risque, qu’au résultat de cette réflexion… les voitures autonomes ne seront pas autorisées à rouler très vite. La Google Car est programmée pour ne pas dépasser 40 km/h, bien peu insistent sur cet aspect en parlant de cette innovation.

L’encadrement du « profiling » par l’article 20 de la Proposition de règlement général sur la protection des données adoptée par le Parlement Européen le 14 avril dernier est une mesure qui va dans le sens d’un encadrement constructif :

« Toute personne physique a le droit de ne pas être soumise à une mesure produisant des effets juridiques à son égard ou l'affectant de manière significative, prise sur le seul fondement d'un traitement automatisé destiné à évaluer certains aspects personnels propres à cette personne physique ou à analyser ou prévoir en particulier le rendement professionnel de celle-ci, sa situation économique, sa localisation, son état de santé, ses préférences personnelles, sa fiabilité ou son comportement » ([i]).

La suite de l’article indiquant quand cela est possible.

Si des risques existent ce n’est pas dans les techniques qui seront à la disposition des particuliers ou des entreprises (le cryptage de l’IPhone n’a pas tenu bien longtemps face au FBI) mais de celles développées par les Etats, pour eux-mêmes. Cela appelle une réponse qui relève des Libertés Publiques et dont on aimerait qu’elle soit à la hauteur de celle qui avait été fournie par la loi de 1978 « Informatique et Libertés » face à l’apparition pour les Etats de la capacité de traiter informatiquement des fichiers de données personnelles, à une époque où l’on se souvenait encore de ce qu’un Etat pouvait faire avec des listes.

Le débat sur la Loi Renseignement laisse hélas peu d’espoir du côté des institutions françaises et il reste à espérer une réaction des juridictions européennes, sur la base de textes tels que celui adopté pour le règlement général sur la protection des données !

[i] http://register.consilium.europa.eu/doc/srv?f=ST+5853+2012+INIT&l=fr