Google apporte à ses logiciels et outils collaboratifs des améliorations fondées sur l'IA qui pourraient se traduire par d'importants gains de productivité. C'est en tout cas le message qu'a porté Sundar Pichai, CEO de Google, lors de la conférence développeurs I/O du groupe cette semaine. Parmi les fonctionnalités phares : la traduction linguistique en temps réel dans Google Meet, jusqu'à présent au stade de la recherche. Cette fonction utilise la technologie d'intelligence artificielle de Google pour traduire les discours d'une langue à l'autre en temps quasi réel, tout en reproduisant le ton et les expressions - comme « hummm » - pendant l'échange. Cette technologie propose de faire tomber les barrières linguistiques, a déclaré M. Pichai. Une vidéo montrait la traduction de l'anglais parlé vers l'espagnol. Une voix off générée par ordinateur prononçait la traduction après un délai d'une seconde. La réponse de l'autre participant était ensuite traduite de l'espagnol vers l'anglais. « Nous sommes encore plus proches d'une conversation naturelle et fluide entre les langues », a expliqué le CEO de Google Les traductions vers l'anglais et l'espagnol sont désormais disponibles en version bêta pour les abonnés AI Pro et Ultra, et d'autres langues seront ajoutées dans les prochaines semaines. « Les traductions en temps réel seront disponibles pour les entreprises dans le courant de l'année », poursuit M. Pichai.
Dans les premiers instants de sa présentation, le dirigeant a également mentionné un nouveau produit, Beam, une plateforme de communication vidéo en 3D qui transforme les flux vidéo en 2D en une expérience réaliste. Ce produit est en cours de développement depuis de nombreuses années dans le cadre d'un effort de recherche appelé Projet Starline. Dans les coulisses, un réseau de six caméras filme les participants sous différents angles. « Grâce à l'IA, nous pouvons fusionner ces flux vidéo et les restituer sur un écran 3D à champ lumineux avec un suivi de la tête presque parfait au millimètre près et à 60 images par seconde, le tout en temps réel », assure M. Pichai. Le résultat, selon lui, est une expérience de conversation beaucoup plus naturelle et profondément immersive. Les premiers terminaux Beam seront disponibles pour les early adopters dans le courant de l'année. La firme s'est associée pour l'occasion à HP, qui communiquera de plus amples informations sur les terminaux spécifiques dans quelques semaines. La vidéoconférence traditionnelle réduit de nombreux indices sociaux naturels que les gens ressentent dans les interactions en face à face, et c'est là que Google Beam trouve sa place, selon J.P. Gownder, vice-président et analyste principal au sein de l'équipe Future of Work de Forrester. « Ces indices subtils contiennent beaucoup plus d'informations que les gens ne le pensent, de sorte que des formes de vidéoconférence plus riches et plus naturelles pourraient présenter des avantages », poursuit l'analyste. Étant donné que les utilisateurs n'ont pas besoin de porter un équipement spécialisé tel qu'un casque de réalité virtuelle, cette technologie sera d'autant plus accessible. « Il s'agit probablement d'un jeu à long terme, mais si l'expérience est meilleure, elle pourrait s'imposer avec le temps », explique M. Gownder.
Les agents IA Gems au coeur de Workspace Flows
Google a également apporté des précisions sur la mise en œuvre de Workspace Flows, une fonctionnalité présentée le mois dernier lors de sa conférence Cloud Next comme un moyen d'automatiser le travail dans les applications de Workspace. Flows fait appel à des agents d'intelligence artificielle - Gems - pour effectuer le travail. Google peut en utiliser certains spécialisés dans certaines tâches telles que le service client qui travaillent avec d'autres pour accomplir des tâches. Une démonstration sur scène de Gems a montré comment les travailleurs pouvaient utiliser des agents d'IA pour automatiser le traitement du service client en partageant des plaintes avec d'autres employés via Google Chat, en recherchant de la documentation sur les produits, en se référant à un modèle interne de genAI pour obtenir des réponses supplémentaires et en envoyant automatiquement une solution possible aux clients. Les Gems utilisent le modèle d'IA Gemini du fournisseur pour analyser les informations, hiérarchiser les tâches et générer un retour d'information. « Il s'agit d'experts en IA que vous pouvez créer pour résoudre des tâches particulières... vous pouvez en fait avoir une équipe de Gems qui travaillent ensemble pour résoudre ces problèmes pour vous », a déclaré Farhaz Karmali, directeur produit de Google pour l'écosystème Workspace, lors d'une présentation au cours de la deuxième journée d'I/O.
M. Karmali a aussi fait part de certaines fonctionnalités conversationnelles plus riches qui seront intégrées à Chat. Les utilisateurs pourront s'abonner aux messages d'une conversation, créer des groupes et gérer les adhésions. Ces fonctionnalités seront utiles pour s'assurer que les conversations et les informations ciblées parviennent aux bons agents. « Imaginez : vous créez une application de chat qui est agentique et vous voulez obtenir toutes les informations d'une application de chat. Vous pouvez maintenant les résumer, ce qui vous aide à prendre des mesures, etc. » Parmi les autres fonctionnalités basées sur l'IA qui seront intégrées à Workspace, citons les réponses intelligentes personnalisées, le nettoyage de la boîte de réception et la prise de rendez-vous rapide dans Gmail ; la possibilité de transformer les présentations Slides en vidéos ; et l'aide à la rédaction dans Docs, qui limite Gemini à des sources spécifiques désignées par l'utilisateur. La conférence I/O s'est déroulée en même temps que la conférence Build de Microsoft, au cours de laquelle l'entreprise a présenté cette semaine de nouvelles fonctionnalités de l'agent Copilot. Les deux géants de la technologie en sont aux premiers stades de l'IA, et les conférences ont mis l'accent sur la façon dont ils développent encore leurs écosystèmes d'agents uniques, selon M. Gownder de Forrester.
Commentaire