Ce robot refuse un ordre s’il le met en danger

Si vous êtes un mordu de science-fiction, vous connaissez sans doute les trois lois de la robotique formulées par l’écrivain de Isaac Asimov. Si vous ne voyez pas ce dont il s’agit, sachez qu’elles servent à organiser les relations entre les robots et les humains, en obligeant les premiers à ne jamais s’en prendre aux seconds et à toujours respecter leurs ordres, à condition que les consignes données n’entrent pas en contradiction avec la règle de préservation des hommes.

Nées dans la littérature, ces trois lois inspirent aujourd’hui les scientifiques travaillant dans la robotique. Dans le secteur de l’intelligence artificielle par exemple, des voix se sont fait entendre pour réclamer un encadrement plus strict de son développement, en s’inspirant justement des pistes couchées sur papier par Isaac Asimov il y a plus de soixante-dix ans, afin d’éviter que des robots trop capables ne se retournent contre l’humanité.

Mais dans ces trois lois, il y en a une qui est plus « favorable » aux robots. C’est la troisième. Celle-ci invite en effet le robot à « protéger son existence tant que cette protection n’entre pas en conflit » avec les autres lois. Or les travaux menés par Gordon Briggs et Matthias Scheutz de l’université de Tufts, aux États-Unis, nous font justement penser à cette règle qui invite le robot à préserver son existence.

Utilisant un robot Nao développé par la société Aldebaran Robotics, ils ont fait en sorte que celui-ci puisse rejeter des ordres venant d’un homme s’ils pourraient s’avérer dangereux pour lui. Dans l’exemple, après plusieurs commandes de base (« assis-toi », « debout ») l’un des deux chercheurs demande au robot d’avancer droit devant alors que le bord de la table est proche. Le robot explique à ce moment-là qu’il ne peut pas le faire, à cause d’un risque de chute. L’instruction est alors répétée, en précisant qu’il sera rattrapé au moment où il basculera dans le vide.

Cette démonstration, qui en est presque attendrissante quand le Nao refuse de se mettre en danger, vise à montrer l’intérêt qu’il peut y avoir de permettre à un robot de refuser une consigne afin d’obliger l’opérateur humain à clarifier son instruction. Elle illustre également la construction de la déduction du robot, qui prend en compte les informations délivrées par le contrôleur.

Source: Numerama. Lire l’article dans son intégralité ici.

 

Publicités
Cet article, publié dans Divers prospective, Evolutions sociétales, Recherche, Technologies, est tagué , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s