Au fur et à mesure que les interfaces utilisateur changent, un clic-molle compatible Bluetooth de la taille d’un bloc de gomme est l’un des moyens les plus complexes de sélectionner, déplacer, cliquer ou contrôler un ordinateur. Mais dans certaines situations, cela a beaucoup de sens. Supposons que vous conduisez un vélo et que vous souhaitiez répondre à un appel avec votre oreillette ou que vous recherchiez un itinéraire, mais que vous ne vouliez pas vous séparer des barres. Ou, si vous êtes paralysé et que vous devez conduire un fauteuil roulant électrique, un tampon directionnel discret dans votre bouche sera beaucoup moins visible qu'un dispositif de contrôle de la bouche ou du menton standard, ou même celui que vous appuierez avec votre épaule.
«Comment pouvons-nous reproduire ces interactions tout en maintenant la discrétion de l'interface?», Explique Pablo Gallego, l'un des inventeurs de l'appareil, appelé ChewIt. «Les gens ne peuvent pas dire si vous interagissez avec ChewIt, ou si vous avez du chewing-gum ou un bonbon gélatineux dans la bouche. Ou peut-être un caramel. "
Gallego a opté pour cette idée, déterminé à l'affiner et à créer un prototype dans le cadre de sa maîtrise en ingénierie de l'Université d'Auckland, en Nouvelle-Zélande. Les recherches ont montré que les humains peuvent reconnaître des formes distinctes dans leur bouche, un peu comme avec le bout des doigts. Et il savait que nous pouvions tolérer les gommes et autres objets étrangers. Des années de travail ont ensuite suivi, optimisant le facteur de forme. Un objet rond ne fonctionnerait pas; l'utilisateur ne pouvait pas dire comment il était orienté. Il devait être assez grand pour être contrôlé, mais assez petit pour se cacher dans la joue. En collaboration avec son collègue de recherche Denys Matthies, Gallego a créé ChewIt à partir d'une goutte asymétrique de résine polymère contenant un circuit imprimé avec un bouton permettant de contrôler et de déplacer une chaise.
Ce prototype de ChewIt montre la résine polymère et le circuit imprimé. (Université d'Auckland)Gallego et Matthies ont conçu et construit ChewIt au laboratoire Augmented Human de l’Université d’Auckland. Suranga Nanayakkara, professeur d’ingénierie pour un groupe de recherche, s'est réuni pour inventer des outils conçus pour adapter la technologie à une utilisation humaine, plutôt que l’inverse. Nanayakkara a estimé qu'il y avait un décalage entre ce que notre technologie fait et la manière dont elle s'interface avec nous. Nous ne devrions pas avoir à l'apprendre; il devrait nous apprendre.
"Une technologie puissante, mal conçue, donnera aux utilisateurs le sentiment d'être handicapés", déclare Nanayakkara. «Une technologie puissante dotée de la bonne interface homme-machine donnera aux gens le sentiment de se prendre en charge, ce qui favorisera l'interaction d'homme à homme au premier plan [et] maintiendra la technologie à l'arrière-plan. Cela aide à exploiter tout le potentiel de la technologie.
Nanayakkara a fait tout son possible pour que les étudiants et les scientifiques de son laboratoire prolifique puissent créer en fonction de leurs intérêts et collaborer les uns avec les autres pour ce qui est de leurs idées. La variété des technologies qu'ils ont développées est remarquable. Un tapis de bienvenue reconnaît les résidents en fonction de leur empreinte, notamment du poids de l'utilisateur et des profils d'usure des semelles, et ouvre la porte à leur place. Il existe un coach personnel de la mémoire qui utilise l'audio lorsqu'il reconnaît que l'utilisateur a le temps et l'attention nécessaires pour s'exercer. Il existe une batte de cricket intelligente qui aide les utilisateurs à s'exercer à se saisir et à se balancer. Il existe un détecteur de marche pour les aides à la marche pour les personnes âgées, car les FitBits et les smartwatches calculent souvent de manière incorrecte les étapes lorsque les utilisateurs utilisent des rouleaux.
Et il y a GymSoles. Ces semelles intelligentes agissent comme un entraîneur d'haltérophilie, aidant les porteurs à conserver une forme et une posture correctes pendant les squats et les soulevés à mort. «Celles-ci ont des postures très distinctes», explique Samitha Elvitigala, qui construit l'appareil dans le cadre de sa candidature à un doctorat. "Il y a des mouvements subtils que vous devez suivre, sinon vous allez vous retrouver avec des blessures." Des capteurs dans les semelles suivent le profil de pression des pieds, calculent le centre de pression et le comparent au modèle qu'il devrait être - dire si l'haltérophile est trop penché en arrière ou trop en avant. Ensuite, le dispositif fournit un retour haptique sous la forme de vibrations subtiles, indiquant comment la levée doit s’aligner. En ajustant son inclinaison et en plaçant correctement ses pieds, ses jambes et ses hanches, tout le corps retrouve sa forme appropriée. Elvitigala est toujours en train de peaufiner le projet et cherche comment l’utiliser pour d’autres applications, comme l’amélioration de l’équilibre chez les patients atteints de Parkinson ou les victimes d’attaques cérébrales.
L'origine du laboratoire humain augmenté remonte à une expérience vécue par Nanayakkara au lycée. Travaillant avec des étudiants d'un pensionnat pour sourds, il s'est rendu compte que tout le monde, sauf lui, communiquait de manière transparente. Cela lui a fait repenser la communication et les capacités. «Il ne s'agit pas toujours de réparer le handicap, mais de créer des liens avec les gens», dit-il. «Je sentais que j'avais besoin de quelque chose pour être connecté avec eux.» Plus tard, il a remarqué un problème similaire dans la communication avec les ordinateurs.
Il a appris à y penser comme un problème de conception lors de ses études d'ingénieur, puis comme post-doctorant en informatique, du groupe Fluid Interfaces de Pattie Maes, qui fait partie du MIT Media Lab. A l'instar du laboratoire humain augmenté, le groupe Interfaces fluides construit des dispositifs conçus pour améliorer les capacités cognitives via des interfaces informatiques transparentes.
«Les appareils jouent un rôle dans nos vies et, pour le moment, ils ont un impact très négatif sur notre bien-être physique, notre bien-être social», explique Maes. "Nous devons trouver des moyens de mieux intégrer les appareils dans notre vie physique, notre vie sociale, de manière à ce qu'ils perturbent moins et aient moins d'effets négatifs."
Selon Maes, l'objectif n'est pas de faire en sorte que les ordinateurs fassent tout pour nous. Nous serons mieux s'ils peuvent nous apprendre à mieux faire les choses nous-mêmes et nous aider comme nous le faisons. Par exemple, ses élèves ont conçu une paire de lunettes qui suit les mouvements des yeux et l'EEG des porteurs et leur rappelle de se concentrer sur une conférence ou une lecture lorsque leur attention se concentre. Une autre utilise la réalité augmentée pour aider les utilisateurs à cartographier les souvenirs dans les rues en marchant, une technique de mémorisation spatiale que les champions de la mémoire appellent un «palais de la mémoire». Comparez cela à Google (peut-être recherchez-vous «costumes d'Halloween» au lieu de faire preuve de créativité, dit Maes ) ou Google Maps, qui ont largement remplacé notre besoin de conserver des informations ou de comprendre où nous en sommes.
«Nous oublions souvent que lorsque nous utilisons un service comme celui-ci, cela nous augmente, il y a toujours un coût», dit-elle. «Un grand nombre d'appareils et de systèmes que nous construisons enrichissent certaines personnes avec certaines fonctions. Mais chaque fois que vous augmentez une tâche ou une capacité, vous perdez parfois un peu de cette capacité. "
Peut-être le dispositif le plus connu de Nanayakkara, le FingerReader, a-t-il commencé au MIT. Conçu pour les malvoyants, FingerReader est simple dans son interface: pointez la caméra à anneau vers quelque chose, cliquez, et l'appareil vous dira de quoi il s'agit, ou lira le texte, à l'aide d'un casque.
FingerReader a suivi Nanayakkara à Singapour, où il a d'abord créé le laboratoire Augmented Human à l'Université de technologie et de design de Singapour, puis à l'Université d'Auckland, où il a transféré son équipe de 15 personnes en mars 2018. * À cette époque, il les étudiants ont affiné FingerReader et ont créé des versions ultérieures. Comme beaucoup d'autres appareils, FingerReader est breveté (à titre provisoire) et pourrait un jour se retrouver sur le marché. (Nanayakkara a fondé une start-up appelée ZuZu Labs pour produire le dispositif et produit actuellement une série de tests de plusieurs centaines de pièces.)
À certains égards, l’expansion d’assistants virtuels tels que Siri, Alexa et Google Assistant s’attaque à des problèmes similaires. Ils permettent une interface plus naturelle, une communication plus naturelle entre les personnes et leurs ordinateurs omniprésents. Mais pour Nanayakkara, ils ne dissimulent pas ses dispositifs, ils offrent simplement un nouvel outil pour les compléter.
«Ces technologies habilitantes sont formidables, elles doivent se produire, c’est la façon dont le domaine évolue», dit-il. «Mais quelqu'un doit réfléchir à la meilleure façon d'exploiter toute la puissance de ceux-ci. Comment puis-je tirer parti de cela pour créer la prochaine interaction homme-machine la plus excitante? ”
* Note de la rédaction, 15 avril 2019: une version précédente de cet article indiquait à tort que Suranga Nanayakkara avait transféré son équipe de l'Université de technologie et de design de Singapour à l'Université d'Auckland en mai 2018, alors qu'en mars 2018. L'histoire a été modifiée pour corriger ce fait.