Hé! Vous semblez être en United States, souhaitez-vous utiliser notre site English ?
Switch to English site
Skip to main content

Qui a peur des machines intelligentes ?

Blue_robot_UC_Berkeley_6a97c97f1b6bc0e8aef0d74039ca1bdf7a03b2bb.jpg

Blue : un Cobot mou et rassurant qui plie le linge ; Crédit image: UC Berkeley

Dans la fiction, les robots ont toujours été présentés comme étant suprêmement intelligents et beaucoup plus forts que les humains. Dans la réalité, il est vrai qu'ils peuvent être plus solides que nous, mais sont-ils aussi intelligents ? Loin de là. Pourtant, dès que le mot "robot" est prononcé, on pense aux films Terminator avec la diabolique intelligence dominatrice de Skynet et à des robots humanoïdes qui ressemblent à des squelettes chromés. L'humanité est-elle destinée à être asservie par les machines à cause notre obsession à créer une "intelligence artificielle" (IA) ?

Les débuts de l'intelligence mécanique et la fraude

Nous avons toujours été fascinés par les automates, ces machines qui exécutent des tâches complexes sans aucune intervention humaine apparente. Dans cette catégorie, on trouve bien sûr les horloges et les montres, ces appareils mécaniques qui réalisent parfaitement une tâche simple. L'une des premières machines qui semblait posséder de réels pouvoirs de pensée était un automate joueur d’échecs du 18 ème siècle appelé "Le Turc". Bien sûr, il devait ses talents à un cerveau humain, mais il a inspiré Charles Babbage pour la conception de ses machines à différences, les premières machines capables d'effectuer des calculs mathématiques. Le Turc n’était pas autonome mais il disposait des nombreux mouvements mécaniques nécessaires à la création de ce qui a plus tard été appelé un "robot humanoïde". L'intelligence artificielle a dû attendre l'invention de l'électronique, car comme Babbage l'a découvert. l'ingénierie mécanique de l'époque n’était pas à la hauteur.

Eric le Robot

Passons maintenant à l'année 1920, qui vit la première utilisation du terme "robot" dans la pièce de théâtre "Les Robots universels de Rossum" de l'écrivain tchèque Karel Čapek. Quelques années plus tard, en 1928, un robot humanoïde appelé Eric était construit pour prononcer le discours inaugural d'une exposition britannique d’ingénierie des modèles réduits. Eric pouvait se lever, bouger les bras et la tête, et "parler". Une réplique fonctionnelle du robot est exposée au Science Museum de Londres.

Eric_the_Robot_41_072c67e91b9ec39f469b16f41d56e0504c495828.jpg

Réplique d’Eric : le premier robot britannique (1928) Illustration : Science Museum

Encore une fois, il ne s'agissait pas là d'une machine intelligente, mais Eric a contribué à répandre l'image populaire d'un robot un peu sinistre qui ressemble à un homme engoncé dans une armure médiévale. Les dents d'Eric, qui produisaient des étincelles de 35 000 volts quand il parlait, ont peut-être contribué au malaise du public ! De nos jours, la réaction de l'audience ne serait sûrement pas la peur mais plutôt l’amusement. Eric a peut-être une forme humanoïde, mais il ne peut pas marcher et n'est pas suffisamment réaliste pour entrer dans la catégorie "Vallée dérangeante".

Trois lois pour la sécurité

En 1942, Isaac Asimov publia ses Trois lois de la robotique dans une nouvelle de science-fiction intitulée "Runaround". Cette nouvelle fut plus tard rassemblée avec d’autres histoires sur l'interaction entre les humains et les robots et l'intelligence artificielle dans un livre intitulé I, Robot. Il s'agissait de la première tentative d'étude des principes éthiques d'une future IA, qui introduisait les désormais célèbres lois destinées à empêcher un "Armageddon robotique" :

  • 1ère loi : Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.
  • 2ème loi : Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • 3ème loi : Un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

Une loi "zéro" fut ajoutée plus tard :

  • Loi 0 : Un robot ne peut nuire à l'humanité, ni, en restant passif, permettre que l’humanité soit exposée au danger.

Asimov était en avance sur son temps car il avait anticipé la nécessité de poser des règles régissant la construction et l'exploitation d'une machine potentiellement capable d'avoir conscience d'elle-même et se considérer comme étant au-dessus de l’humanité dans la "chaîne alimentaire".

Aujourd’hui

Cela peut sembler incroyable, mais près de 90 ans plus tard, les vrais robots, contrairement aux robots humanoïdes fictifs, ont peu avancé en termes d'intelligence. Le matériel mécanique avec ses commandes électroniques de bas niveau est maintenant très sophistiqué : il suffit d’aller jeter un œil aux produits développés par Boston Dynamics. Les lois d'Asimov sont restées incontestées pendant des décennies parce qu'elles s’appliquent à des robots futurs, imaginés comme étant à la fois physiquement et intellectuellement supérieurs à leurs créateurs humains. Jusqu'à récemment, nous n'avions pas grand-chose à craindre des simples bras articulés peu sophistiqués qui soudent des voitures en usine car ils sont fixés en place et ne font que ce que leur programme leur demande, et des barrières maintiennent les travailleurs humains à l'écart. Un problème pourrait bientôt survenir : des robots mobiles potentiellement meurtriers pourraient bientôt apparaître dans les usines et les entrepôts, et une IA sous la forme de l'apprentissage machine/profond rend difficile de garantir un fonctionnement sans risque. Regardez cette vidéo du robot d'entrepôt Handle de Boston Dynamics en action :

Apprendre à tuer

Vous frémissez peut-être à l'idée de robots humanoïdes, mais si le robot Handle doté d'intelligence artificielle vous confondait avec une boîte en carton, vous risqueriez des blessures graves. Est-ce possible ? C'est plus que possible : l’un des problèmes principaux du deep learning est l'introduction involontaire de "partialité" dans le processus d'apprentissage initial. Par exemple, si l’on présente comme "correctes" des images de toutes sortes de boîtes, et que d'autres images, de personnes par exemple, sont présentées comme "incorrectes", l'algorithme devrait apprendre à reconnaître seulement les boîtes comme cible. Mais il existe un problème potentiel : si toutes les boîtes présentées dans les images sont de la même couleur marron, et que tous les employés de l’entrepôt portent des manteaux marron, le moteur d'inférence exécuté sur le robot qui recherche en temps réel des images via sa caméra risque de déduire que tous les objets marron sont des boîtes...

La partialité est une réelle limitation du deep learning. Dans notre exemple, il est possible de la surmonter en ajoutant de nombreuses images de personnes portant des manteaux marron aux images d’origine. Mais très souvent, la solution n'est pas aussi simple et le nombre d'images nécessaire à la formation peut être énorme pour assurer une reconnaissance précise. La qualité du jeu de données ne peut être éprouvée que lors des essais dans le monde réel. Certains logiciels de reconnaissance de voitures sans conducteur fonctionnaient bien avec les images test, mais ont lamentablement échoué sur la route. Toute comme dans le cas de l'intelligence humaine, il ne s'agit pas d'une science exacte - on travaille avec des probabilités, pas avec des certitudes. La question est : sommes-nous prêts à travailler aux côtés de machines qui risquent de faire des erreurs parce que, tout comme nous, elles apprennent leurs compétences au lieu d’être programmées ?

Mise à jour des trois lois

Vous commencez à craindre les robots ? Plusieurs tentatives ont été faites ces dernières années pour améliorer les lois d’Asimov et les mettre à jour pour qu'elles soient utiles aux concepteurs modernes. Les conseils de recherche britanniques EPSRC et AHRC ont tenu un groupe de réflexion en 2010 pour ériger des principes de la robotique destinés aux ingénieurs de conception et de développement. Ces principes s'appliquent à la conception et à l’utilisation de robots "réels", et la responsabilité de leurs actions relève strictement du domaine humain. Il n'est pas question de blâmer l’IA d’un véhicule autonome pour avoir pris de mauvaises habitudes et causé un accident mortel. Les machines "sensibles" n'existent pas (encore).

Cependant, certains, comme Mark Tilden, proposent des droits pour les robots. Voici les principes qu'il propose :

  • Un robot doit protéger son existence à tout prix.
  • Un robot doit obtenir et maintenir l'accès à sa propre source d'alimentation.
  • Un robot doit continuellement chercher de meilleures sources d'alimentation.

Ces principes s'appliquent à un robot sensible et vivant. J'espère ne plus être là quand mon grille-pain exigera d’être libéré de l'environnement oppressant de ma cuisine.

Un peu de pensée latérale

L'industrie a été plutôt lente à mettre dans place les Cobots dans les ateliers et les usines. Cela est peut-être en partie dû au marketing exagéré autour de leur utilité, mais aussi à la réticence des travailleurs pour des raisons de sécurité. L’Université de Californie, Berkeley, a trouvé une solution : un robot mou baptisé Blue, issu de la robotique molle. Même des bras robotisés de petite taille peuvent être suffisamment puissants pour blesser un humain. Les mesures préventives permettant d'éviter ce genre de problème augmentent les coûts. La difficulté consiste à combiner la puissance de l'articulation motrice et la rigidité de l'armature nécessaires pour assurer des mouvements précis. Mais dans la majorité des tâches affectées à des Cobots, cette précision et cette force ne sont pas nécessaires : la plupart n’ont qu’à sélectionner et déplacer des objets ou prendre un outil sur demande et le passer à l'ingénieur humain de l'autre côté de l'établi. Ces tâches restent dans le champ humain de la force et de la dextérité, pourquoi ajouter une puissance et une précision inutiles ? Découvrez Blue, le robot à base de bandes en caoutchouc, naturellement sans danger :

Je parie que vous n’auriez pas peur de ce robot, même si son intelligence artificielle commençait à élaborer des plans pour dominer le monde.

I bet you wouldn’t be afraid of that robot – even if its AI brain did start harbouring thoughts of world domination.

Pour conclure...

Simplement pour souligner que les IA façon Terminator sont probablement encore bien loin de nous, en 2014 IBM a investi beaucoup d'argent dans Watson, un ordinateur IA qui a battu tous les concurrents pour gagner le jeu télévisé américain Jeopardy. Le projet de base était que Watson puisse poser des diagnostics médicaux à la place des docteurs. À ce jour, c’est beaucoup d’efforts pour pas grand-chose. Les données entrées, y compris les notes des médecins et les dossiers médicaux des patients, semblent être trop compliquées et pas assez structurées, même pour Watson, qui ne trouve pas de motifs cachés. Cela fonctionnera peut-être un jour, quand la prochaine grande percée viendra remplacer le deep learning.

Si vous avez des questions sur des aspects pratiques, suivez mes messages sur Twitter. Je mets des liens vers des articles intéressants sur l'électronique et les nouvelles technologies, je retweete des publications que j'ai repérées sur les robots, l'exploration spatiale et d'autres sujets.

Engineer, PhD, lecturer, freelance technical writer, blogger & tweeter interested in robots, AI, planetary explorers and all things electronic. STEM ambassador. Designed, built and programmed my first microcomputer in 1976. Still learning, still building, still coding today.
DesignSpark Electrical Logolinkedin