B. RESPONSABILITÉ JURIDIQUE DES ROBOTS ET PROTECTION DES DONNÉES INDIVIDUELLES

Responsabilité des robots (1) et protection des données individuelles (2) : deux domaines cruciaux à maîtriser.

1. Un robot civilement responsable ?

La responsabilité civile exclut aujourd'hui la responsabilité directe d'un objet, quelles que soient ses caractéristiques. En particulier, le droit des assurances automobiles basé sur les conventions de Genève (1949) et de Vienne (1968) retient exclusivement la responsabilité du conducteur. Or, l'essor attendu de la conduite sans chauffeur pourrait multiplier les parties prenantes dont la responsabilité pourrait introduire de nouvelles causes d'accidents, peu compatibles avec les principes en vigueur : qui sera responsable d'un accident mortel intervenu à un croisement par temps clair, avec des feux rouges émettant de façon accidentelle des signaux radio (destinés aux véhicules connectés) incohérents avec la couleur de la signalisation visuelle ? En ce domaine, le vide juridique est total. Les réflexions destinées à en sortir évoquent une quête du Graal, obstinée mais vaine jusqu'à présent.

Conduit sous la direction d'une université pisane 16 ( * ) , le projet RoboLaw 17 ( * ) s'est achevé avec la publication en septembre 2014 de lignes directrices sur le régime juridique des robots 18 ( * ) . La principale idée du chapitre consacré aux véhicules autonomes est que le régime de responsabilité ne doit pas compromette l'innovation.

Cette réflexion exploratoire a été prolongée au niveau du Parlement européen, dont la Direction générale des politiques internes a publié en 2016 une étude destinée à la commission des affaires juridiques, intitulée Règles européennes de droit civil en robotique 19 ( * ) . Contrairement à ce que le titre pourrait suggérer, il ne s'agit pas d'une étude du droit comparé, mais bien de suggestions tendant à favoriser l'élaboration de règles applicables au droit civil en robotique. Ce travail a pour mérite d'insister sur l'indispensable clarification des concepts, par exemple « robot intelligent » ou « robot autonome ». Ce rapport propose d'élaborer une Charte sur la robotique, axée sur des principes de « roboéthique » : protéger l'homme contre les atteintes causées par un robot ; respecter le refus par un humain d'être pris en charge par un robot ; protéger les êtres humains contre les atteintes à la vie privée commises par des robots ; maîtriser les données à caractère personnel exploitées par un robot ; protéger l'homme contre les risques d'instrumentalisation par un robot 20 ( * ) ; éviter la rupture du lien social consécutive à une assistance robotisée ; assurer l'égalité d'accès aux progrès de la robotique ; restreindre l'accès de l'homme aux technologies augmentatives 21 ( * ) . Il ne semble pas que ces idées aient suffi à satisfaire les parlementaires européens, puisque la résolution législative adoptée le 16 février 2017 en session plénière exhorte la Commission européenne à élaborer une proposition législative assez différente 22 ( * ) . Le premier point consiste à créer une Agence européenne pour la robotique, chargée d'une expertise technique, éthique et réglementaire.

En outre, cette résolution législative tend à organiser l'indemnisation de la responsabilité civile des robots : les députés européens appellent de leurs voeux une assurance obligatoire, abondant un fonds destiné à dédommager totalement les victimes d'accidents causés par des robots , à l'instar de ce qui existe déjà pour les véhicules dont le conducteur est inconnu ou non assuré 23 ( * ) . Mais la principale innovation juridique proposée est la création d'un statut juridique sui generis pour les « personnes électroniques responsables tenues de réparer tout dommage causé à un tiers », applicable à « tout robot qui prend des décisions de façon autonome ou qui interagit de façon indépendante avec des tiers ». Cohérente avec le fonds d'indemnisation, cette suggestion semble contredire une autre idée formulée dans ce texte, disposant que « plus un robot est autonome, plus sa capacité d'apprentissage est grande, et plus cette période de formation a été longue, plus grande devrait être la responsabilité de la personne qui l'a formé » : si la responsabilité des actes commis par un robot sophistiqué est reportée sur son « maître d'apprentissage », ledit robot ne peut en répondre. Le législateur devra choisir ! Au demeurant, l'émergence récente de systèmes d'intelligence artificielle qui élaborent eux-mêmes des simulations leur permettant d'apprendre dans la phase initiale revient à écarter le « maître d'apprentissage » initial, rendant le critère obsolète avant même son adoption Et que dire des systèmes d'apprentissage entièrement conçus par des applications d'intelligence artificielle, telle AutoML de Google, qui doivent pallier l'insuffisance chronique d'ingénieurs qualifiés en intelligence artificielle ?

2. La préservation de la vie privée

L'ordonnancement juridique actuel de l'Union européenne devant protéger les personnes physiques en matière de traitement des données personnelles est inadapté au bouleversement introduit par l'intelligence artificielle. Prévu pour entrer en vigueur le 25 mai 2018, le nouveau règlement 2016/679 du 27 avril 2016, relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données ne comporte pas de référence explicite à l'intelligence artificielle, bien que le sixième considérant mentionne «l'évolution rapide des technologies et la mondialisation », qui « ont créé de nouveaux enjeux pour la protection des données à caractère personnel ». Pour l'essentiel, ce nouveau texte, qui doit entrer en application le 25 mai 2018 24 ( * ) , confirme les limitations au traitement de données personnelles relatives à des personnes vivantes, en exigeant le consentement préalable de la personne concernée, dans le respect des finalités pour lesquelles ces données ont été initialement collectées.

Faute d'initiative au niveau de l'Union, la Commission nationale de l'informatique et des libertés (CNIL) a publié, le 17 octobre 2017, le « pack de conformité » Véhicules connectés et donné personnelles . Ce document distingue trois scénarios, selon que les données collectées à l'intérieur du véhicule sont traitées à l'intérieur de celui-ci, à l'extérieur pour fournir un service, ou transmises à l'extérieur pour déclencher in fine une action dans le véhicule. Il reste à généraliser ce type d'approche au niveau de l'Union européenne, donc des contacts informels entre autorités des États membres - ce que la CNIL a fait avec son homologue allemand - mais aussi l'élaboration d'un modèle économique adapté.

L'essor de très nombreuses applications numériques s'explique partiellement par leur gratuité pour leurs utilisateurs. Or, le corolaire de cette générosité est résumé par la formule lapidaire : « Si c'est gratuit, vous êtes le produit ! » Ce schéma est incompatible avec toute protection des données nominatives. L'intelligence artificielle embarquée ne pourra - et ne devra - donc pas être payée de cette façon . Idem pour les mises à jour.

La solution est simple pour les flottes de voiture mises en location, puisque le loyer pourra couvrir le prix d'un abonnement aux mises à jour. De même, le paiement initial des véhicules achetés pourra inclure le prix de l'intelligence artificielle embarquée, mais pas les mises à jour. Le nouveau modèle économique reste à inventer.


* 16 La Scuola superiore Sant'Anna (SSSA) (École supérieure Sainte-Anne), qui a travaillé avec trois autres institutions universitaires des Pays-Bas, d'Angleterre et d'Allemagne.

* 17 Abréviation de « Robotics facing law and ethics » (La robotisation face à la loi et à l'éthique), un programme financé par l'Union européenne dans le cadre du 7 e programme cadre européen pour le développement technologique, qui s'est déroulé de mars 2012 à septembre 2014.

* 18 RoboLaw. D6.2 Guidelines on Regulating Robotics.22/09/2014 .

* 19 Parlement européen. Direction générale des politiques internes. Règles européennes de droit civil en robotique. Étude pour la commission JURI. 2016.

* 20 Cette expression vise en fait le risque de voir un être humain s'attacher excessivement à une machine. Le cas de figure a déjà été constaté avec des militaires prêts à se sacrifier pour protéger leur auxiliaire robotisé.

* 21 Cette formulation vise le « transhumanisme », qui tend à créer un être humain hybride, dont les potentialités naturelles auraient été accrues grâce à l'intelligence artificielle. Le 27 septembre 2015, Anthony Levandowski, le « Père » de la Google car, a fondé « Way of the future » (la Voie de l'avenir), une « religion » nouvelle fondée sur ce concept.

* 22 Résolution du Parlement européen du 16 février 2017, contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique 2015/2013(INL).

* 23 Cette solution diffère de celle inscrite dans la loi allemande du 12 mai 2017, qui retient la responsabilité du constructeur en cas d'accident provoqué par un véhicule en conduite autonome.

* 24 Cette évolution juridique devrait accompagner l'application d'un nouveau règlement, régissant les communications électroniques, mais la proposition COM(2017)10 formulée le 10 janvier par la Commission européenne connaît un parcours difficile au Parlement européen.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page