https://frosthead.com

Les robots tueurs peuvent-ils apprendre à respecter les règles de la guerre?

Comme nous le rappelle chaque année le Memorial Day, la guerre ne disparaît pas.

Mais ça change. Et l'un des changements les plus profonds que nous verrons dans les années à venir concerne une armée de plus en plus dépendante des robots. Les drones font l’objet de toute l’attention, mais de plus en plus d’innovations du Département de la défense concernent d’autres types de machines non habitées, allant des avions expérimentaux aux soldats sur le terrain.

Il est facile de comprendre l'attraction. L'utilisation de robots est potentiellement plus efficace, plus précise et moins coûteuse que de compter uniquement sur des humains en guerre. Et cela signifierait aussi, bien sûr, moins de victimes humaines.

Mais cette transformation pose un défi complexe: peut-on programmer des machines militaires pour prendre des décisions? Ce qui conduit à une question plus délicate: les robots peuvent-ils apprendre la moralité?

L’Office of Naval Research des États-Unis pense que le moment est venu de le savoir. Plus tôt ce mois-ci, il a annoncé une subvention de 7, 5 millions de dollars sur cinq ans pour financer la recherche dans les universités Tufts, Brown, Yale et Georgetown et au Rensselaer Polytechnic Institute (RPI) afin de déterminer si les machines pouvaient un jour choisir entre le mauvais et le mauvais.

La Marine veut éviter la situation à laquelle est confrontée la voiture sans conducteur de Google: disposer d'une technologie qui a été rendue publique bien au-delà de toute clarification sur les questions juridiques et éthiques qu'elle soulève. Avant que des robots autonomes ne se rendent sur le terrain, les militaires veulent savoir s'ils peuvent réellement apprendre à faire ce qui est bien.

Selon Selmer Bringsjord, responsable du département des sciences cognitives de RPI, l'intelligence artificielle d'un robot pourrait être conçue pour fonctionner à deux niveaux de moralité. La première serait basée sur une liste de choix éthiques clairs, tels que «si vous rencontrez un soldat blessé, vous devriez l'aider». Mais que se passe-t-il si cette action entre en conflit avec sa mission première, telle que la livraison de munitions dont le besoin est crucial? d'autres soldats? Selon Bringsjord, le robot devrait alors avoir la capacité de s’engager dans un «raisonnement moral plus profond» pour prendre des décisions dans des situations que ses programmeurs n’auraient peut-être pas pu anticiper.

Les chercheurs devraient développer des algorithmes et des mécanismes informatiques uniques qui pourraient être intégrés à l'architecture existante de robots autonomes, un "processus de réflexion" qui permettrait à une machine de passer outre le comportement planifié en fonction de sa capacité à appliquer un raisonnement moral.

Si cela semble extraordinairement ambitieux, eh bien, ça l'est. Pour commencer, les chercheurs devront isoler les éléments fondamentaux de la moralité humaine - sur quels principes sommes-nous tous d’accord? - et ensuite trouver le moyen de les incorporer dans des algorithmes qui donneraient aux robots un certain niveau de compétence morale.

Ce n'est pas une petite entreprise. Pour cette raison, il est probable que les machines non contrôlées par des humains seront, dans un avenir prévisible, limitées à des rôles non liés au combat, tels que la surveillance, la sécurité, la recherche et le sauvetage ou les soins médicaux. Mais inévitablement, les planificateurs militaires voudront une réponse à la question qui l’entoure: faut-il que les robots, agissant seuls, aient le droit de tuer un humain?

Si une machine est sûre à 90% que tout le monde à bord d'un véhicule qu'elle a l'intention de tirer est un terroriste, est-ce suffisant? Un robot serait-il capable de tirer avec une arme sur un enfant s'il détermine que c'est l'ennemi? Si quelque chose ne va pas et qu'un robot autonome fait sauter un village par erreur, qui est responsable? Le commandant qui a commandé l'opération? La personne qui a programmé le robot? Ou personne?

Si vous pensez que cela relève encore de la science-fiction, pensez qu'au début de ce mois, des experts sur des sujets allant de l'intelligence artificielle aux droits de l'homme, en passant par le droit international, ont pesé sur les «robots tueurs» lors d'une conférence des Nations Unies à Genève. Des groupes tels que Human Rights Watch et des responsables de quelques pays, dont le Pakistan, l'Égypte, Cuba et le Vatican, ont appelé à l'interdiction totale des robots pouvant tuer. Mais la plupart des pays, en particulier ceux dotés des robots les plus avancés, ne sont pas prêts à aller aussi loin.

Jetez un coup d'œil, par exemple, au WildCat, un robot à quatre pattes développé pour fonctionner à grande vitesse sur tous types de terrains.

Pour le moment, l'armée américaine suit une directive du ministère de la Défense de 2012 selon laquelle aucune machine dotée du pouvoir de tuer ne peut être totalement autonome. Un humain doit littéralement appeler les coups. Mais cela pourrait ne pas être vrai pour tous les endroits: en mars, un scientifique russe citait un responsable russe affirmant que des sentinelles robotisées installées dans cinq installations de missiles balistiques seraient capables de détecter et de détruire des cibles sans qu'un humain ne donne son feu vert.

Le Talon Foster-Miller, vu ci-dessous, est l’une des nombreuses machines développées pour le combat dans le monde entier.

Règles de guerre

Un rapport sur la conférence sur les robots tueurs sera présenté au Comité de certaines armes conventionnelles de l'ONU en novembre. Mais il ne semble pas qu'une interdiction soit imminente.

Ronald Arkin, expert en intelligence artificielle chez Georgia Tech, était depuis longtemps un ardent défenseur de la capacité des machines à prendre des décisions morales. Il pense que si les robots peuvent apprendre à respecter le droit international, ils pourraient en réalité se comporter de manière plus éthique que les humains en temps de guerre, car ils seraient parfaitement cohérents. Ils ne pourraient pas réagir avec colère, panique ou préjugé. Donc, Arkin s'oppose à une interdiction, bien qu'il soit ouvert à un moratoire sur les armes autonomes jusqu'à ce que les machines aient la possibilité de voir si elles peuvent maîtriser les règles de la guerre.

Un autre scientifique de l'IA, Noel Sharkey, qui a débattu d'Arkin à Genève, est d'un esprit très différent. Il ne pense pas qu'il faille jamais donner aux robots le pouvoir de prendre des décisions de vie ou de mort.

Récemment, il a déclaré à Defense One : «Je ne pense pas qu'ils finiront par se retrouver avec un robot moral ou éthique. Pour cela, nous avons besoin d'une agence morale. Pour cela, nous devons comprendre les autres et savoir ce que signifie souffrir. "

«Un robot peut être installé avec certaines règles d'éthique, mais il s'en fiche», dit-il.

Les robots tueurs peuvent-ils apprendre à respecter les règles de la guerre?