Quand une interface cerveau-machine tue, qui est responsable ?

Les interfaces cerveau-machine posent de nombreux dilemmes éthiques.

Au mois d'avril dernier, Elon Musk a révélé la mission de son entreprise Neuralink : créer une interface cerveau-machine qui permettrait aux humains de contrôler un ordinateur par la pensée. Cette annonce a fait grand bruit. Un peu partout sur la planète, on a imaginé un futur à la Ghost in the Shell avec un frisson d'inconfort. Pourtant, les interfaces cerveau-machine (ICM) existent depuis un moment. Les chercheurs les utilisent déjà dans un grand nombre de domaines, pour rendre le contrôle de leurs membres à des patients paralysés ou pour animer des courses de drones, par exemple.

Publicité

Les technologies de type ICM sont impressionnantes, mais encore à leurs balbutiements. Pourtant, dans un article publié le 29 juin dernier par la revue Science, une équipe internationale de chercheurs soutient qu'il n'est pas trop tôt pour se pencher sur les problèmes éthiques qui surviendront nécessairement quand il sera possible de contrôler les ordinateurs avec l'esprit.

"Bien que l'interaction immédiate et sans effort entre esprit et machine puisse sembler attirante, créer un lien direct entre une machine et notre cerveau pourrait limiter ou suspendre dangereusement notre capacité à contrôler les interactions entre nos représentations 'internes' et le monde 'externe', affirment les auteurs de l'article. Pour beaucoup, un tel cas de figure fait surgir des peurs fondamentales, voire existentielles. Parmi elles, la peur de la perte de la vie privée et de l'autonomie, mais aussi de la dissolution du soi."

Bien que les auteurs reconnaissent que la peur d'une "dissolution du soi" au travers de la machine puisse sembler exagérée en regard des capacités actuelles des ICM, ils notent : "Au vu de la croissance exponentielle du secteur au cours des dernières décennies, nous devrions nous attendre à ce que les possibilités offertes par ces technologies évoluent rapidement."

Les voitures autonomes ont fait ressurgir le problème philosophique classique que l'on appelle "le dilemme du tramway". De la même manière, les ICM viennent accompagnées d'une gamme de questions éthiques pour le moins épineuses. Le problème de la responsabilité s'impose d'emblée. Les auteurs de l'article affirment que les interfaces cerveau-machine peuvent être vues comme un nouveau genre d'outil ; seulement, contrairement au marteau et au clou, elles sont composées d'un certain nombre d'éléments parfois autonomes.

Publicité

Si vous cassez la vitre de quelqu'un à l'aide d'un marteau, toute la responsabilité de la faute vous incombe. Mais si vous pensez à casser une vitre à l'aide d'un marteau alors que vous êtes connecté à une ICM et que votre robot autonome s'empresse de briser la véranda de votre voisin, le problème se complique ; peut-être que vous n'aviez pas l'intention de causer le moindre dégât. Dès lors, difficile de dire qui est en faute.

Un jour, une symbiose homme-robot causera des dommages corporels à un individu. Pour résoudre le problème de responsabilité qu'il fera nécessairement surgir, les auteurs imaginent un système qui demanderait à l'utilisateur humain d'approuver ou de refuser toute action non-voulue de la machine avec laquelle il interagit. Pensez au moment où un piéton déboule devant une voiture autonome : le conducteur a la possibilité de freiner ou de laisser la machine prendre une décision. Sa part de responsabilité dépendra de son choix.

Les utilisateurs d'interfaces cerveau-machine pourraient, par exemple, valider ou stopper les actions d'un robot à l'aide d'un système d'eye-tracking. Ce dispositif serait moins efficace dans le cas d'un robot défaillant, mais les constructeurs et les législateurs s'intéressent déjà au problème du risque produit. Il faudrait simplement créer un nouveau régime d'évaluation des risques pour les technologies de type ICM.

Image : Wyss Center

L'autre problème majeur concerne la vie privée. Les interfaces cerveau-machine ont le pouvoir de révéler beaucoup d'informations physiologiques sans le consentement de leur utilisateur. Nous entreposons déjà une bonne partie de notre vie personnelle sur des ordinateurs qui sont vulnérables au piratage et aujourd'hui, il n'y a aucune raison de croire que les ICM seront moins menacées.

Publicité

Des chercheurs ont déjà montré qu'il était possible de pirater des implants vitaux, comme une pompe à insuline ou un défibrillateur cardiaque. Une manipulation malveillante peut aboutir à la mort de l'utilisateur. Il est également possible d'intercepter et manipuler des signaux biologiques convertis en signaux numériques (Bluetooth ou Wi-Fi). Malheureusement, comme le font remarquer les auteurs de l'article, "il n'existe à notre connaissance aucune solution technologique fiable à ce problème."

À les croire, les entreprises d'ICM représentent déjà l'une des plus grandes menaces pour la vie privée. Il y a peu de raisons de croire que les données cérébrales ne seront pas achetées et vendues à la manière des informations personnelles que nous partageons sur Internet. Pour cette raison, continuent-ils, les entreprises d'ICM doivent développer des règles éthiques claires concernant la façon dont ces données seront stockées et utilisées.

Les chercheurs expliquent qu'il y a quelques leçons à tirer des technologies qui utilisent des protocoles de chiffrement pour protéger la data. De quel genre de code allons-nous avoir besoin pour mettre nos ondes cérébrales à l'abri ? Les auteurs de l'article réclament plus de travaux dans le domaine de l'ingénierie neurale sécurisée, ou neurosécurité, pour empêcher les manipulations non-autorisées de données neurales, ou brainjacking.

Pour le moment, il y a peu de réponses aux nombreuses questions que posent les ICM.

Les interfaces cerveau-machine pourront peut-être aider à traiter beaucoup d'afflictions, de la paralysie aux troubles de la concentration. Dans le futur, elle dévoilera sans doute beaucoup d'autres applications. Reste que si nous souhaitons éviter un futur dans lequel des millions de personnes finissent brainjackées à cause d'une attaque informatique massive, nous avons tout intérêt à poser les conditions de la symbiose homme-machine dès maintenant.