Les robots apprennent à désobéir aux ordres (mais c'est pour la bonne cause)

Non, ce n'est pas encore le soulèvement des machines.
07 décembre 2015, 4:41pm

La science fiction est riche en exemples de robots refusant de faire ce que leur demandent les humains qui les entourent. « Je suis désolé Dave, je ne peux pas faire ça », dit par exemple HAL 9000. « C'est contre ma programmation de devenir un dieu », insiste C3PO. Le Terminator, robot peu loquace s'il en est, se contente de répondre «négatif ». Et ne parlons même pas du rapport de Bender à l'autorité.

Aujourd'hui, les robots bien réels qui peuplent notre monde sont en passe d'imiter leurs homologues fictifs et d'apprendre le pouvoir du mot "non". Des chercheurs de l'université de Tufts qui travaillent au sin d'un laboratoire spécialisé dans les interactions robots-humains apprennent à des robots à désobéir à des ordres directs. Vous pouvez juger de leurs progrès en regardant la vidéo ci-dessous, qui met en scène un robot Nao prénommé Shafer.

Video: HRI Laboratory at Tufts University/YouTube

Au début de la vidéo, le chercheur Gordon Briggs ordonne oralement à Shafer de s'asseoir ou de se lever, ce qu'il fait poliment. Mais lorsque Briggs dit au robot de marcher sur un rebord assez étroit, Shafer est saisi d'un doute. « Mais… c'est dangereux », remarque-t-il, avec une sincérité confuse aussi adorable que déchirante.

Briggs l'assure qu'il l'attrapera s'il tombe, et Shafer finit par s'exécuter après une ultime hésitation. J'avais franchement peur que Briggs le laisse effectivement tomber, ce qui, je pense, aurait irrévocablement mis un terme aux relations pacifiques entre hommes et robots pour l'éternité. Fort heureusement, ça ne se passe pas comme ça. Même s'il s'autorise un discret « aïe », Shafer est finalement récompensé pour avoir fait confiance à Briggs.

C'est tout l'enjeu de ces exercices : apprendre aux robots qu'il est acceptable de désobéir à un ordre, à condition qu'ils puissent justifier ce refus. Prenons, par exemple, une autre expérience filmée par le labo, dans laquelle un robot nommé Dempster refuse d'affronter un obstacle sans la sécurité adéquate.

Video: HRI Laboratory at Tufts University/YouTube

De façon intéressante, lorsque Shafer est confronté au même exercice, Briggs ne lui tient pas le même discours. Au lieu de lui demander de désactiver ses capteurs de détection d'obstacle, il donne à Shafer des informations concernant la solidité de l'obstacle en question. Comme il l'avait fait pour l'expérience précédente, Shafer prend en compte ces nouvelles informations, et finit par s'exécuter.

Video: HRI Laboratory at Tufts University/YouTube

Même si, de prime abord, apprendre aux robots à désobéir aux ordres semble une très mauvaise idée, ces travaux sont importants pour développer des formes d'intelligence artificielle capable de produire un raisonnement. Si les robots doivent être un jour nos serviteurs, il vaut mieux qu'ils s'habituent à recevoir des ordres absurdes et contradictoires, parce qu'après tout, nous ne sommes que des humains.

Publicité