Sur les TechDays, ce matin, Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, a projeté son auditoire dans un monde peuplée d'interfaces se fondant dans le décor ou devenant invisibles. Un monde où tout a l'air facilité et qui semblera familier aux amateurs de romans d'anticipation et de jeux vidéos [mais qui, à bien des égards, peut apparaître aussi terriblement désincarné et angoissant].

Lors de la première démonstration, Na-Young Kwon, la jeune femme (ingénieur commercial sur les outils de développement chez Microsoft France) qui donne la réplique à Bernard Ourghanlian, est identifiée par le miroir de sa salle de bain qui lui renvoie d'abord son poids, avant d'afficher le résultat d'une analyse médicale transmise par le biais d'une brosse à dent très spéciale. S'ensuit une courte vidéoconférence, toujours via le miroir, avec un médecin qui fait expédier les médicaments propres à traiter le taux de glycémie trop élevé décelé lors de l'analyse. « Si l'on est surveillé en temps réel, on va pouvoir agir avant le problème », promet Bernard Ourghanlian. Les données sur la personne, rendues anonymes [pour le bon déroulement de la démonstration, on va essayer de le croire], sont récoltées dans le cloud. « Voilà ce que pourrait être la médecine dans quelques années », avance le directeur technique.

Nao, petit compagnon de nos vieux jours

Nous vivons de plus en plus vieux, avec malheureusement une évolution vers une plus grande dépendance. Cela nous pend au nez, nous le savons. Heureusement, pour compenser cette perte d'autonomie, nous pourrons nous adjoindre un petit auxiliaire robotisé, comme le petit Nao, déjà bien connu des amateurs de robots. Il pourra lire les journaux, comprendra la voix, percevra les sentiments, répondra au téléphone et pourra joindre nos proches. C'est le projet Romeo, d'Aldebaran Robotics. Au passage, les développeurs intéressés sont informés qu'ils peuvent recourir aux outils Visual Studio et Robotics Developer Studio pour donner vie au robot Nao.

Invité sur scène, Stéphane Nègre, PDG d'Intel France, se projette lui aussi un peu plus loin en évoquant des capteurs à dimension sensorielle et contextuelle qui permettent à un système de percevoir la personne qui se trouve face à lui et de calculer, notamment, le temps d'attention qu'elle peut lui accorder pour interagir avec elle. Des technologies qui, dans quelques années, pourront être mises à l'oeuvre dans des lieux de vente, par exemple, pour combiner la présence en magasin et l'expérience virtuelle, cette dernière permettant de découvrir d'autres gammes de produits que ceux exposés sur place. « Aujourd'hui, on sait faire cela sur de très gros systèmes », assure Stéphane Nègre, mais peut-être dans quelques années pourra-t-on parvenir à des expériences similaires sur des systèmes peu coûteux.

Page suivante : Projets Skinput et LightSpace

(*) Plus de 300 sessions en trois jours, de l'OS Windows Embedded Compact 7 pour les systèmes embarqués, à la présentation de ASP.NET MVC 3 en passant par le développement de jeu vidéo pour Azure, le Web ou Windows Phone 7 avec Silverlight.