https://frosthead.com

Les machines peuvent-elles apprendre la moralité?

Lorsque John Brennan, le choix du président Obama d'être le prochain chef de la CIA, a comparu devant un comité du Sénat hier, une question a supplanté toutes les autres lors de son audience de confirmation:

Comment les décisions sont-elles prises pour envoyer des drones tueurs après des terroristes présumés?

Pourquoi et comment ordonner des frappes de drones spécifiques reste largement un mystère, mais au moins une chose est claire: les décisions sont prises par des humains qui, espérons-le, luttent contre l'idée d'envoyer un missile mortel dans un bâtiment occupé.

Mais si les humains n'étaient pas impliqués? Et si un jour les décisions de vie ou de mort étaient laissées aux machines équipées de nombreuses données, mais également au sens du vrai et du faux?

Dilemme moral

Ce n'est pas si loin recherché. Cela n'arrivera pas de si tôt, mais il ne fait aucun doute que plus les machines deviendront intelligentes et autonomes, plus leur capacité à apprendre sera la clé de la transformation.

En fait, ce n'est peut-être pas si loin. Gary Marcus, qui écrivait récemment dans The New Yorker, a présenté le scénario de l'une des voitures sans conducteur de Google avant d'être contraint de prendre une décision à la fraction de seconde: «Votre voiture roule à 50 miles à l'heure sur un pont alors qu'un autobus scolaire errant transportait 40 enfants innocents traverse son chemin. Votre voiture devrait-elle dévier, risquant ainsi la vie de son propriétaire (vous), afin de sauver les enfants, ou continuez, en mettant les 40 enfants en danger? Si la décision doit être prise en millisecondes, l’ordinateur devra passer l’appel. ”

Et qu'en est-il des armes robotiques ou des soldats? Un drone pourrait-il apprendre à ne pas tirer sur une maison s'il savait que des civils innocents étaient également à l'intérieur? Peut-on apprendre aux machines à suivre les règles internationales de la guerre?

Ronald Arkin, professeur d'informatique et expert en robotique à Georgia Tech, le pense certainement. Il développe des logiciels, appelés «gouverneurs éthiques», qui permettraient aux machines de décider du moment propice pour déclencher le feu ou non.

Arkin reconnaît que cela pourrait prendre encore des décennies, mais il pense que les robots pourraient un jour être à la fois physiquement et éthiquement supérieurs aux soldats humains, et non vulnérables au traumatisme émotionnel du combat ou au désir de vengeance. Il n'envisage pas une armée de robots, mais une machine dans laquelle des machines serviraient des humains, exécutant des tâches à haut risque, pleines de prises de décisions stressantes, telles que le nettoyage de bâtiments.

Attention aux robots tueurs

Mais d’autres pensent que le moment est venu d’écarter ce type de réflexion avant qu’elle aille trop loin. À la fin de l’année dernière, Human Rights Watch et la clinique des droits de l’homme de la Harvard Law School ont publié un rapport intitulé «Perdre l’humanité: le cas contre des robots tueurs», appelant, conformément à son titre, les autorités à interdire toute arme autonome risque de mort ou de blessure pour les civils lors d'un conflit armé. "

À peu près au même moment, un groupe de professeurs de l’Université de Cambridge a annoncé son intention de créer ce qu’ils appellent le Centre d’étude du risque existentiel. Lors de son ouverture plus tard cette année, il encouragera une recherche scientifique sérieuse sur ce qui pourrait se produire si et quand les machines deviendraient plus intelligentes que nous.

Le danger, explique Huw Price, l'un des cofondateurs du Centre, est qu'un jour, nous pourrions avoir affaire à «des machines qui ne sont pas malveillantes, mais des machines dont les intérêts ne nous incluent pas».

L'art de la déception

Shades of Skynet, l'escroc du système d'intelligence artificielle qui a engendré le cyborg Arnold Schwarzenegger dans les films The Terminator . Peut-être que ce sera toujours la matière de la science-fiction.

Mais considérons d’autres recherches que Ronald Arkin effectue actuellement dans le cadre de projets financés par le ministère de la Défense. Avec ses collègues, il étudie comment les animaux se trompent les uns les autres, dans le but d'apprendre aux robots l'art de la supercherie.

Par exemple, ils ont travaillé sur la programmation de robots afin de pouvoir, si nécessaire, feindre la force, comme le font souvent les animaux. Et ils étudient des machines à enseigner pour imiter le comportement de créatures comme l’écureuil gris oriental. Les écureuils cachent leurs noix aux autres animaux et, lorsque d’autres écureuils ou prédateurs apparaissent, ils se rendent parfois dans des endroits où ils cachaient des noix pour jeter leurs concurrents hors de la piste. Les robots programmés pour suivre une stratégie similaire ont été capables de brouiller et de ralentir leurs concurrents.

Tout cela dans l’intérêt, dit Arkin, de développer des machines qui ne soient pas une menace pour les humains, mais plutôt un atout, en particulier dans le vilain chaos de la guerre. La clé est de commencer à se concentrer maintenant sur l’établissement de directives pour un comportement approprié du robot.

"Lorsque vous commencez à ouvrir cette boîte de Pandore, que faut-il faire avec cette nouvelle capacité?", A-t-il déclaré lors d'une récente interview. "Je pense qu'il est possible que ces robots intelligents réduisent le nombre de victimes non combattantes, mais nous devons faire très attention à la façon dont ils sont utilisés et ne pas simplement les relâcher sur le champ de bataille sans préoccupation appropriée."

À en croire l'écrivain new-yorkais Gary Marcus, les machines à la fine pointe de la technologie offrent un grand potentiel au-delà du champ de bataille.

La pensée qui me hante le plus, c'est que l'éthique humaine n'est en soi qu'un travail en cours. Nous sommes toujours confrontés à des situations pour lesquelles nous n’avons pas de codes bien développés (par exemple, dans le cas de l’assistance au suicide) et n’avons pas besoin de fouiller dans le passé pour trouver les cas dans lesquels nos propres codes étaient douteux, ou pire (par exemple, les lois esclavage et ségrégation autorisés).

Ce que nous voulons vraiment, ce sont des machines qui peuvent aller plus loin et qui sont dotées non seulement des codes d'éthique les plus solides que nos meilleurs philosophes contemporains peuvent concevoir, mais également de la possibilité pour les machines de faire leur propre progrès moral, les faisant passer plus tôt que notre propre idée de la moralité du XXIe siècle. "

Les machines marchent dessus

Voici les développements de robot les plus récents:

  • Hmmmm, éthique et sournois: des chercheurs australiens ont mis au point un robot qui peut se faufiler en se déplaçant uniquement lorsque le bruit de fond est suffisant pour couvrir son son.
  • Qu'est-ce que ce bourdonnement?: Les soldats britanniques en Afghanistan ont commencé à utiliser des drones de surveillance qui peuvent tenir dans la paume de leurs mains. Appelé le Black Hornet Nano, le petit robot mesure seulement 4 pouces de long, mais il possède une caméra espion et peut voler pendant 30 minutes avec une charge complète.
  • Gratter la surface: la NASA développe un robot appelé RASSOR qui ne pèse que 100 livres, mais sera capable d'extraire des minéraux sur la lune et sur d'autres planètes. Il peut se déplacer sur un terrain accidenté et même au-dessus des audacieux en s’appuyant sur ses bras.
  • Ah, la luxure: Et voici une histoire au début de la Saint-Valentin. Des scientifiques de l'Université de Tokyo ont utilisé un papillon de nuit pour conduire un robot. En fait, ils ont utilisé ses mouvements de conjugaison pour diriger l'appareil vers un objet parfumé aux phéromones femelles.

Bonus vidéo: Vous n'êtes donc pas sûr de pouvoir utiliser un robot de 13 pieds? Aucun problème. Voici une démo astucieuse qui vous montre à quel point cela peut être facile. Un modèle heureux vous montre même comment utiliser la fonction «Smile Shot». Tu souris, ça tire des BB. Comment est-ce difficile?

Plus de Smithsonian.com

Ce robot est un meilleur père que ton père

Les robots ont le contact humain

Les machines peuvent-elles apprendre la moralité?