Sur les TechDays, ce matin, Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, a projeté son auditoire dans un monde peuplée d'interfaces se fondant dans le décor ou devenant invisibles. Un monde où tout a l'air facilité et qui semblera familier aux amateurs de romans d'anticipation et de jeux vidéos [mais qui, à bien des égards, peut apparaître aussi terriblement désincarné et angoissant].

Lors de la première démonstration, Na-Young Kwon, la jeune femme (ingénieur commercial sur les outils de développement chez Microsoft France) qui donne la réplique à Bernard Ourghanlian, est identifiée par le miroir de sa salle de bain qui lui renvoie d'abord son poids, avant d'afficher le résultat d'une analyse médicale transmise par le biais d'une brosse à dent très spéciale. S'ensuit une courte vidéoconférence, toujours via le miroir, avec un médecin qui fait expédier les médicaments propres à traiter le taux de glycémie trop élevé décelé lors de l'analyse. « Si l'on est surveillé en temps réel, on va pouvoir agir avant le problème », promet Bernard Ourghanlian. Les données sur la personne, rendues anonymes [pour le bon déroulement de la démonstration, on va essayer de le croire], sont récoltées dans le cloud. « Voilà ce que pourrait être la médecine dans quelques années », avance le directeur technique.

Nao, petit compagnon de nos vieux jours

Nous vivons de plus en plus vieux, avec malheureusement une évolution vers une plus grande dépendance. Cela nous pend au nez, nous le savons. Heureusement, pour compenser cette perte d'autonomie, nous pourrons nous adjoindre un petit auxiliaire robotisé, comme le petit Nao, déjà bien connu des amateurs de robots. Il pourra lire les journaux, comprendra la voix, percevra les sentiments, répondra au téléphone et pourra joindre nos proches. C'est le projet Romeo, d'Aldebaran Robotics. Au passage, les développeurs intéressés sont informés qu'ils peuvent recourir aux outils Visual Studio et Robotics Developer Studio pour donner vie au robot Nao.

Invité sur scène, Stéphane Nègre, PDG d'Intel France, se projette lui aussi un peu plus loin en évoquant des capteurs à dimension sensorielle et contextuelle qui permettent à un système de percevoir la personne qui se trouve face à lui et de calculer, notamment, le temps d'attention qu'elle peut lui accorder pour interagir avec elle. Des technologies qui, dans quelques années, pourront être mises à l'oeuvre dans des lieux de vente, par exemple, pour combiner la présence en magasin et l'expérience virtuelle, cette dernière permettant de découvrir d'autres gammes de produits que ceux exposés sur place. « Aujourd'hui, on sait faire cela sur de très gros systèmes », assure Stéphane Nègre, mais peut-être dans quelques années pourra-t-on parvenir à des expériences similaires sur des systèmes peu coûteux.

Page suivante : Projets Skinput et LightSpace

(*) Plus de 300 sessions en trois jours, de l'OS Windows Embedded Compact 7 pour les systèmes embarqués, à la présentation de ASP.NET MVC 3 en passant par le développement de jeu vidéo pour Azure, le Web ou Windows Phone 7 avec Silverlight.[[page]]Imaginons un monde où « l'on anticipe les besoins et les désirs », dans lequel l'utilisateur, bardé de capteurs et de dispositifs de tout type (accéléromètre, GPS, micro, vidéo, agenda...) renseigne sur ses mouvements, sa localisation, son humeur, son appartenance à un réseau social... On saura dans l'instant s'il marche, s'il est seul ou au milieu d'une foule et s'il a envie qu'on lui transmette ses appels téléphoniques ou pas tout de suite... Qui dit capteurs dit aussi intrusion dans la vie privée, reconnaît tout de même Bernard Ourghanlian. 

On peut jouer sérieusement avec la Kinect

Mais essayons de voir le bon côté des choses. Prenons la Kinect, cet équipement qui transforme l'utilisateur en manette pour jouer avec la console Xbox 360 (gros succès de Microsoft ce Noël). La société belge Fishing Cactus, créateur de jeux, travaille à des serious games qui pourraient servir d'outils aux thérapeutes, la Kinect permettant aux patients, en l'occurrence des personnes âgées, d'interagir avec la machine sans intermédiaire. « C'est une aide au diagnostic pour l'instant, explique Laurent Grumiaux, son directeur commercial, mais nous pouvons imaginer d'aller plus loin », en ajoutant que ce projet est financé par Microsoft Innovation Center en Belgique et par l'Université de Mons.

« Les technologies qui réussissent deviennent invisibles »

« Cette réalité augmentée est de plus en plus présente dans notre vie », souligne Bernard Ourghanlian. Les présentations du directeur technique grimpent alors d'un cran dans la dématérialisation. Il aborde le projet Skinput qui porte sur l'utilisation d'applications sans intermédiaire. Une vidéo montre comment, à l'aide de capteurs placés sur le bras, par exemple, on pourra utiliser des applications sans le truchement d'une interface matérielle, mais en passant par son corps (illustration ci-dessus). On téléphonera en tapant sur ses doigts, on visualisera son écran sur la paume de sa main.

Poussons le curseur un peu plus loin avec le projet LightSpace où il est question de « spatial computing », c'est-à-dire d'interaction avec des objets dans une pièce. En équipant une salle de caméras tridimensionnelles, une simple table en bois acquiert des capacités interactives. Une image ou un objet informatique, affichée sur la table, peut passer d'une main à l'autre avant d'être envoyée sur le mur. « On peut transformer n'importe quelle surface d'une pièce en un support interactif », nous explique-t-on.


Projet LightSpace - Cliquer pour agrandir l'image

Et Bernard Ourghanlian de citer en conclusion le scientifique américain Mark Weiser, qui oeuvra longtemps au Xerox PARC (Palo Alto Research Center) et que l'on tient pour le père de l' « ubiquitous computing » dans lequel les traitements informatiques s'intègrent dans les objets et les activités quotidiennes : « Les technologies qui réussissent deviennent invisibles ».