piratage du cerveau : pourquoi pas ?

Le cerveau est l’un des plus grands mystères du corps humain. Cette boîte noire n’a de cesse de nous surprendre et de nous intriguer. A titre d’exemple, la plasticité neuronale permet au cerveau de se reconfigurer et réorganiser les réseaux de neurones tout au long de notre vie. Le monde de la recherche scientifique s’intéresse depuis plusieurs années aux intelligences artificielles et à des technologies permettant à notre corps d’interagir avec des ordinateurs.

L’ordinateur étant un outil d’innovation incontournable, les interfaces neuronales directes (IND ou BCI – brain computer interfaces) ont rapidement fait leur apparition dans les années 1970. Cette technique consiste à relier directement le cerveau à un dispositif informatique comme un ordinateur par l’intermédiaire d’une puce implantée dans le cortex. Les signaux cérébraux sont alors enregistrés par l’ordinateur qui traite l’information et y répond.

La start-up Neuralink d’Elon Musk a déjà développé une technologie en ce sens : un implant cérébral permettant aux personnes paralysées de commander un ordinateur. Les GAFA n’échappent pas à cette mode puisque Mark Zuckerberg a annoncé en 2017 travailler sur une interface conçue pour que les utilisateurs puissent écrire un texte par la pensée. C’est également ce que le World Economic Forum 2020, sur le thème « Quand les humains deviennent des cyborgs », a abordé à travers des questions d’éthique, d’intégrité corporelle et de propriété numérique.

Ces innovations promettant des merveilles à l’être humain, menacent néanmoins leurs droits et libertés. Elles nous ramène à la question générale de l’interaction Homme-machine et plus spécifiquement, l’interaction cerveau-machine. Le cerveau étant le refuge de nos pensées les plus intimes et les plus personnelles, l’invasion d’un ordinateur dans un tel espace d’informations privées se révèle dangereux pour la sécurité de nos données.

Cela soulève, d’un point de vue purement juridique, plusieurs questions inédites qu’il convient d’envisager.

La première difficulté posée par une telle technologie est l’absence d’un cadre juridique spécifique répondant aux problématiques liées à l’intelligence artificielle. Cette lacune est présente aussi bien au niveau français, au niveau européen qu’au niveau international. Il existe toutefois des propositions du Parlement européen ainsi que des rapports relatifs aux intelligences artificielles[1].

La deuxième difficulté est celle de la protection des données personnelles et de l’atteinte à la vie privée au cours de l’utilisation d’une IND. Qui du concepteur de l’IA, du fabricant, de l’utilisateur ou de l’IA elle-même est responsable ? Si le droit positif est capable de répondre à un certain nombre d’hypothèses[2], il n’envisage pas, à l’heure actuelle, l’hypothèse d’une violation des données consécutive à une décision prise par l’IA du fait d’une anomalie et encore moins celle de la divulgation involontaire d’informations par l’utilisateur lui-même[3]. Dans ce cas, la création d’un régime juridique nouveau parait nécessaire. Un tel régime est d’autant plus indispensable que le deep learning permet aux IA d’apprendre d’elles-mêmes de nouvelles fonctionnalités et empêche ainsi le rattachement d’un tel régime à des concepts juridiques préexistant.

En tout état de cause, les entreprises ayant recours à des IA devront se soumettre aux exigences issues du Règlement général sur la protection des données (RGPD) telles que la transparence vis-à-vis des données, la protection de la vie privée, le respect des principes de loyauté et de vigilance….

Enfin, le droit actuel n’apporte aucune réponse spécifique à la question de la détermination de la responsabilité en cas de dommage causé au cerveau lors d’un piratage ou d’une défaillance du système de l’IND. Aucun régime particulier n’existe pour les dommages causés par des IA et les régimes de droit commun ne sont pas adaptés à ce cas de figure.

En effet, le régime de responsabilité civile contractuelle s’applique seulement lorsqu’il existe une relation contractuelle entre les parties ce qui n’est pas systématique dans le cadre d’une IND. De la même façon, les régimes de responsabilité civile délictuelle ne sont pas appropriés. On peut prendre l’exemple de la responsabilité du fait des produits défectueux [4] qui suppose d’avoir la direction et le contrôle du produit, ce qui n’est pas possible avec une IA.

La création d’un régime spécifique similaire à celui des accidents de la circulation serait une solution permettant une sécurité juridique plus importante pour les utilisateurs face aux IA. En revanche la création d’une personnalité juridique propre à l’IA est une solution présentant des lacunes trop importantes pour être envisagée.

 


[1] Directive 2006/42/CE du Parlement et du Conseil, 17 mai 2006 relative aux machines et modifiant la directive 95/16/CE (refonte) ; Cédric Villani, Donner un sens à l’intelligence artificielle : Pour une stratégie nationale et européenne, mars 2018 ;

[2] Règlement (UE) nº 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données)

[3] L’ordinateur étant directement relié au cerveau, il sera potentiellement impossible de limiter ou sélectionner les informations que l’utilisateur souhaite ou non partager avec l’interface.

[4] C. civ., art. 1245 et s.