https://frosthead.com

Les robots sont intelligents - mais peuvent-ils nous comprendre?

Dans les films, on n'entend jamais les robots dire «Hein?

Malgré toutes ses inquiétudes, "Star Wars" 'C-3PO n'a jamais été confondu. Sonny, le pivot non humain de "I, Robot" a peut-être été confondu sur ce qu'il était, mais il ne semblait pas avoir de difficulté à comprendre Will Smith.

Dans la vraie vie, cependant, les machines luttent encore puissamment avec le langage humain. Bien sûr, Siri peut répondre aux questions s’il reconnaît suffisamment de mots dans une requête donnée. Mais demander à un robot de faire quelque chose qu’il n’a pas été programmé, étape par étape, à faire? Eh bien, bonne chance avec ça.

Une partie du problème est qu’en tant qu’êtres humains, nous ne sommes pas très précis dans notre façon de parler; quand on se parle, on n'a généralement pas besoin de l'être. Mais demandez à un robot de "chauffer de l'eau" et la réponse appropriée serait "Quoi?" - à moins qu'il n'ait appris à traiter la longue série de questions liées à cet acte apparemment simple. Parmi eux: Qu'est-ce que l'eau? Où l'obtiens-tu? Que pouvez-vous mettre dedans? Que signifie "réchauffer"? Quel autre objet avez-vous besoin de faire cela? La source est-elle dans cette pièce?

Aujourd'hui, cependant, des chercheurs de l'Université Cornell ont relevé le défi de former un robot pour interpréter ce qui n'est pas dit - ou l'ambiguïté de ce qui est dit. Ils appellent le projet Tell Me Dave, un clin d'œil à HAL, l'ordinateur à la voix apaisante et aux tendances paranoïaques du film "2001: une odyssée de l'espace".

Leur robot, équipé d'une caméra 3D, a été programmé pour associer des objets à leurs capacités. Par exemple, il sait qu’une tasse peut être utilisée pour retenir de l’eau, pour boire, ou pour verser de l’eau dans autre chose; un poêle est quelque chose qui peut chauffer des objets, mais aussi quelque chose sur lequel vous pouvez placer des objets. Les informaticiens appellent la technique de formation le fondement: aider les robots à associer des mots à des objets et à des actions dans le monde réel.

«Les mots ne signifient rien pour un robot s'ils ne sont pas fondus en action», explique Ashutosh Saxena, responsable de l'équipe Tell Me Dave. Le robot du projet, a-t-il déclaré, a appris à cartographier différentes expressions, telles que «décroche» ou «soulève-la» pour la même action.

C'est un grand pas en avant dans la communication homme-robot, compte tenu du nombre de façons différentes de décrire une tâche simple.

"Tous les robots, tels que ceux de l'industrie, des voitures autonomes ou des robots d'assistance, doivent interagir avec les humains et interpréter leur langage imprécis", a-t-il déclaré. "Pouvoir comprendre le sens des mots à partir de leur contexte environnemental serait utile pour tous ces robots immédiatement."

Un effort de groupe

Saxena et les étudiants diplômés Dipendra Misra et Jaeyong Sung se sont également tournés vers le crowdsourcing pour recueillir autant de variantes de la langue anglaise que possible.

Les visiteurs du site Web Tell Me Dave sont invités à demander à un robot virtuel d'effectuer une tâche spécifique, telle que «Fabriquer des ramen». Comme la plupart des gens ont tendance à donner des commandes différentes tout au long du processus, l'équipe a pu: rassembler un grand vocabulaire lié à la même étape du processus.

Ces commandes, enregistrées avec des accents différents, sont associées à des simulations vidéo stockées de différentes tâches. Ainsi, même si les expressions sont différentes - «amenez la casserole au poêle» par opposition à «mettez la casserole sur le poêle» - la machine Tell Me Dave peut calculer la probabilité d'une correspondance avec quelque chose qu'elle a déjà entendu.

À ce stade, le robot Tell Me Dave exécute les tâches demandées presque les deux tiers du temps. Cela inclut les cas dans lesquels des objets sont déplacés vers différents endroits de la pièce ou le robot travaille dans une pièce totalement différente. Parfois, cependant, le robot n’a toujours aucune idée: quand il lui a été dit d’attendre que la glace devienne molle, "il ne savait pas quoi faire", explique Saxena.

Néanmoins, il est devenu beaucoup plus efficace pour remplir des étapes non spécifiées. Par exemple, quand on lui a dit de «chauffer l'eau dans la casserole», le robot s'est rendu compte qu'il devait d'abord transporter la casserole au robinet et la remplir d'eau. Il sait également que, lorsqu'il lui est demandé de chauffer quelque chose, il peut utiliser le poêle ou le four à micro-ondes, selon ce qui est disponible.

Saxena affirme que la formation du robot Tell Me Dave doit être améliorée avant de pouvoir être utilisée dans des conditions réelles. Être capable de suivre les instructions 64% du temps n'est pas assez bon, dit-il, d'autant plus que les humains comprennent ce qu'on leur dit 90% du temps.

Saxena et son équipe présenteront leurs algorithmes pour les robots de formation et montreront comment ils ont étendu le processus grâce au crowdsourcing, la semaine prochaine à la conférence sur la robotique, la science et les systèmes à l'Université de Californie à Berkeley; Des recherches similaires sont en cours à l'Université de Washington.

Il ne fait aucun doute que les robots maîtriseront les algorithmes. Ce n’est qu’une question de savoir quand cela fera le saut du laboratoire au marché. L'année prochaine? Pas probable. Mais dans une décennie, alors que les grandes entreprises se concentrent sur de nouveaux marchés tels que les voitures autonomes, il est tout à fait possible que nous puissions dire à des robots comme Tell Me Dave de commencer à dîner.

Tu peux répéter s'il te plait?

Voici des nouvelles plus récentes sur la recherche sur la communication avec et par des robots:

  • Quel est le geste pour «m'assurer que mon siège est chaud» ?: Mercedes-Benz veut être le premier grand constructeur automobile à commencer à vendre des voitures sans conducteur, peut-être dès 2020, et ses ingénieurs ont commencé à travailler avec des experts en robotique pour développer L’utilisation de signaux manuels que les capteurs d’une voiture peuvent comprendre est une méthode qui retient beaucoup l’attention. Selon les experts, avec le bon geste, vous pourriez héler votre voiture garée de venir vous chercher.
  • Enfin, des robots auxiliaires pour les mécaniciens: chez Audi, des assistants robotiques seront bientôt expédiés aux mécaniciens de la société dans le monde entier. Les robots seront équipés de caméras 3D contrôlées par un spécialiste hors site, qui pourra guider les personnes travaillant sur les voitures lors de réparations délicates.
  • Rendre Siri plus intelligent: Selon un rapport paru dans Wired, Apple a commencé à recruter des experts de la reconnaissance vocale alors qu'il commence à se concentrer sur le concept de réseaux de neurones.
  • Un robot doit se rendre à une exposition d'art: plus tard ce mois-ci, un robot commencera à faire de l'auto-stop à travers le Canada. Appelé HitchBOT, il a été décrit comme une combinaison de projet artistique et d'expérimentation sociale. Le but est de voir si HitchBOT peut se rendre de Halifax à une galerie à travers le pays en Colombie-Britannique. Il ne pourra pas se déplacer tout seul, mais il sera équipé d'un microphone et d'une caméra lui permettant de détecter les mouvements et la parole. Il sera également en mesure de répondre aux questions en utilisant une base de données provenant de Wikipedia.
Les robots sont intelligents - mais peuvent-ils nous comprendre?