Flux RSS

R et D

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

956 documents trouvés, affichage des résultats 141 à 150.

< Les 10 documents précédentsLes 10 documents suivants >


(27/12/2010 09:50:24)

La réalité augmentée au service de la relation client

Prendre son téléphone portable, utiliser sa caméra et viser une rue pour trouver la route vers un magasin ou un endroit où obtenir un service via des indications ajoutées sur l'écran : c'est là une application concrète de la réalité augmentée sur terminal mobile (RATM). De telles applications se multiplient en ce moment mais pour une utilisation relativement marginale.

Pourtant, selon le cabinet Forrester, « toutes les conditions sont réunies pour une adoption progressive » de cette technologie. Cet institut vient de publier son étude « Mobile Augmented Reality - Beyond The Hype, A Glimpse Into The Mobile Future » qui est très favorable à la réalité augmentée sur terminaux mobiles (RATM). Plutôt pilotés aujourd'hui par les services marketing, la RATM s'intègrera un jour ou l'autre dans les SI et est donc appelée à repasser sous la coupe de la DSI. Forrester ne prend pas position sur le sujet et en reste pour l'heure à un pilotage par le marketing.

Une levée des freins

Forrester argumente sa position très favorable sur la RATM tout d'abord en relevant que les principaux freins à l'adoption de celle-ci sont en train d'être levés. Le premier de ces freins est la capacité des terminaux mobiles eux-mêmes à réaliser de la RATM. Or les téléphones et autres tablettes voient leurs puissances de calcul comme de stockage de données exploser. Le deuxième est l'existence des réseaux haut débit mobile 3,5G. Ceux-ci sont suffisants pour la RATM selon Forrester sans qu'il soit nécessaire d'attendre un déploiement de la 4G (LTE...). Mais que la RATM soit possible n'implique pas forcément qu'elle soit utilisée. « Les marketeurs et spécialistes produits se doivent d'être prudents lorsqu'ils intègrent la RA dans leur stratégie mobile pour 2011 » tempère Forrester qui reconnaît l'immaturité du concept.

Eduquer les consommateurs

Malgré tout, « le comportement des consommateurs devrait évoluer progressivement ». Pour justifier cette position, Forrester estime que les consommateurs sont de plus en plus habitués à interagir avec leur environnement grâce à leur terminal mobile. L'exemple pris peut laisser dubitatif : la prise de photographies qui, aujourd'hui, est plus importante en quantité avec les smartphones qu'avec des appareils photographiques. Mais il faut reconnaître qu'il s'agit là du premier stade d'interaction : la prise d'une image pour, par exemple, la mettre aussitôt en ligne sur Facebook. Selon Forrester, la RATM se développera conjointement avec les autres technologies d'interaction de l'utilisateur de smartphones, avec, au premier chef, la géolocalisation mais aussi la lecture de codes barres ou de puces NFC. Le développement de chacune de ces technologies renforcera les autres avec un effet de cercle vertueux.
(...)

(24/12/2010 12:18:56)

La racetrack memory d'IBM veut concurrencer la mémoire flash

Appelée « racetrack memory, » il s'agit d'une technologie sur laquelle le chercheur d'IBM Stuart Parkin travaille depuis 2004. Contrairement à un disque dur, qui tourne autour de charges magnétiques des atomes à l'aide d'un moteur, la racetrack memory utilise des courants électriques pour déplacer des paquets d'électrons, appelés des murs magnétiques, maintenus de haut en bas par un fil minuscule. « C'est comme une sorte d'onde magnétique que nous bougeons sans avoir à déplacer les atomes », a déclaré Stuart Parkin.

En déplaçant ces murs vers un lecteur, la racetrack devrait être capable de lire et écrire des données beaucoup plus rapidement en utilisant beaucoup moins d'énergie que les dispositifs actuels de stockage. Stuart Parkin pense qu'il peut avoir un effet important sur la capacité de stockage des appareils électroniques courants, comme les téléphones. Avec du financement, il pense que d'ici deux à cinq ans, il pourra construire des puces avec des fils qui amèneront les murs magnétiques vers des capacités de stockage intégrant jusqu'à cent fois plus de données que les puces équipées de mémoire flash. Avec l'utilisation de fils de quelques microns de long et environ 30 nanomètres de large - un millième de l'épaisseur d'un cheveu humain - les puces équipées de cette technologie pourront stocker des centaines de Go, voire quelques téraoctets de données, prédit le chercheur.

Les ondes magnétiques ont une masse


L'équipe de Stuart Parkin a déjà développé des prototypes de racetrack avec la possibilité de lire et d'écrire des ensembles de données simples. Mais jusqu'à présent, il y avait une question clé à résoudre: comment déplacer exactement les murs magnétiques ?  Avant, il y avait deux écoles de pensée sur cette question. Une approche qui estime que les ondes magnétiques décrites par Stuart Parkin n'ont pas de masse et ne se déplacent qu'à une vitesse définie en fonction d'une impulsion électrique donnée. L'autre approche  est de dire que ces ondes ont une masse soumise aux lois de l'inertie mais elles peuvent prendre de la vitesse pour accélérer jusqu'à plusieurs centaines de miles par heure et s'arrêter lorsqu'il n'y a plus de courant. C'est ce qu'ont souligné les chercheurs dans un article publié sur la question le 24 décembre dans Science Magazine. Fort de cette connaissance, ils vont pouvoir déplacer et récupérer des données sur la technologie racetrack.

Il y a encore beaucoup de travail à faire avant qu'elle devienne une réalité, mais la résolution de la question des déplacements des murs magnétiques est un grand pas. Il demeure des problèmes sont plus pratiques et moins théoriques : comment voulez-vous construire un puce racetrack qui fonctionne de manière fiable avec des millions voire des milliards de ces fils, par exemple » conclut le chercheur.

(...)

(21/12/2010 11:55:10)

Des chercheurs montent un botnet pour comprendre son fonctionnement (MAJ)

Les botnets sont complexes et les grands systèmes distribués consistant en plusieurs milliers, voire parfois en plusieurs millions d'ordinateurs, sont souvent exploités par les cybercriminels pour mener des actions nuisibles : cela va de l'envoi massif de spam, au lancement d'attaques par déni de service DDoS, en passant par l'installation de logiciels espions. « Pratiquement tous les utilisateurs d'Internet ont subi les effets néfastes des botnets. Par exemple quand ils reçoivent des quantités massives de spams, quand leurs informations confidentielles sont volées, ou quand ils perdent l'accès à des services Internet critiques, » écrivent les chercheurs pour résumer leurs résultats.

Afin de mieux comprendre ce que les chercheurs qualifient comme « l'une des menaces les plus inquiétantes de la sécurité informatique,» l'expérience a recréé, en l'isolant, une version du botnet Waledac. Ce dernier, démantelé par Microsoft cette année, comportait à un moment donné entre 70.000 à 90.000 ordinateurs infectés et était responsable de l'envoi de 1,5 milliards de spams par jour. Pour les besoins de la recherche, environ 3 000 copies de Windows XP ont été chargées sur un cluster de 98 serveurs hébergé dans les locaux de l'Ecole Polytechnique de Montréal. Les noeuds ont été infectés par le ver Waledac, introduit depuis un DVD, et non par connexion avec d'autres machines.

Trouver un remède


Les chercheurs ont pris soin de toujours maintenir le réseau infecté hors connexion de tout autre réseau. Les machines du réseau créé pour l'expérience pouvaient communiquer les unes avec les autres de la même façon que les ordinateurs le font dans un système informatique distribué, avec un serveur de commande et de contrôle pour envoyer des instructions à certaines machines chargées elles-mêmes de les relayer à d'autres machines. La méthode qu'utilise un botnet pour ajouter toujours plus d'ordinateurs zombies à son réseau.

L'objectif était de recueillir des informations sur le réseau de zombies pour comprendre aussi bien que possible son architecture et ses modes de fonctionnement. L'équipe de chercheurs s'est particulièrement intéressée aux protocoles de communication et aux formats des messages, au processus d'authentification pour accéder au botnet, mais aussi à son architecture de commande et de contrôle. Les chercheurs ont également lancé ce qu'ils appellent une attaque « sybil » contre le botnet, en ajoutant des bots pour voir quel impact cela pouvait avoir sur le réseau de zombies. Ils ont constaté que leur attaque avait réussi grâce aux caractéristiques particulières du protocole P2P maison que le réseau a utilisé pour envoyer ses ordres et effectuer son contrôle. « Parce que l'adresse IP d'un bot ne doit pas être unique (les robots sont principalement identifiés par leur ID 16-bits), il est possible de générer un grand nombre de « sibyls » - avec des identifiants uniques, mais avec la même adresse IP, tout en utilisant peu de machines, ce qui rend cette attaque relativement facile à monter, » indiquent les chercheurs dans leurs résultats. Selon les chercheurs, « en une heure, l'attaque a réussi à stopper le botnet, l'empêchant de continuer à envoyer des emails. »

(...)

(14/12/2010 17:33:53)

Microsoft booste la reconnaissance vocale dans le cloud

« Parmi tous les services hébergés par Microsoft, c'est la reconnaissance vocale qui mobilise l'un des plus gros systèmes cloud de l'entreprise, » a déclaré Zig Serafin, directeur général des applications voix chez Microsoft. Celui-ci concerne aussi bien les services de réponse vocale utilisés par les lignes téléphoniques des services clients de grandes entreprises comme Orbitz ou American Airlines, que la technologie permettant aux utilisateurs mobiles d'utiliser la voix dans le moteur de recherche Bing ou encore aux abonnés de Ford Sync d'obtenir des informations routières. C'est avec l'acquisition de Tellme en 2007 que Microsoft s'est immiscé sur ce marché. A l'époque, la reconnaissance vocale était dans l'air depuis des années, mais sans faire preuve de résultats probants en terme de fonctionnement. « Essayer d'utiliser une partie du logiciel embarqué sur un téléphone mobile était une épreuve, même quand on était dans un endroit tranquille, » a déclaré Will Stofega, analyste chez IDC.

Zig Serafin, directeur général des applications voix chez Microsoft

« Mais la technologie a suffisamment évolué pour que, sur l'ensemble des moteurs de recherche mobiles gérés par Microsoft, 20% soient maintenant accessibles par la voix, » a indiqué Microsoft. Via le cloud, l'éditeur recueille aussi des informations sur la manière dont les gens utilisent le service et s'en sert pour l'améliorer. Par exemple, si un utilisateur dit sur son mobile tournant sous Windows Phone 7 « Seattle restaurant italien » dans Bing, la firme sait si l'utilisateur clique sur un résultat, ce qui signifie qu'il a obtenu la réponse souhaitée. A l'inverse, l'utilisateur peut être amené à énoncer plusieurs fois sa requête vocale, indiquant peut-être que le service de Microsoft n'a pas bien identifié la demande. L'éditeur recueille également des informations sur la qualité de la connexion, pour estimer si elle peut être responsable des mauvais résultats. « Ces informations sont précieuses pour aider à améliorer la technologie sous-jacente du système », a déclaré Zig Serafin.

Un service également proposé par Google

Google permet également à ses utilisateurs d'effectuer des recherches par la voix et propose différentes offres mettant en oeuvre la reconnaissance vocale. L'entreprise fait aussi du traitement en back-end pour observer la façon dont les gens utilisent ses services. Pour sa part, Microsoft, qui a de multiples produits utilisant la reconnaissance vocale, dit traiter environ 11 milliards de requêtes « voix » par an. Sur les appareils tournant sous Windows Phone 7, les utilisateurs ont juste à appuyer sur le bouton Accueil pour lancer la fonction voix, laquelle permet de contrôler de nombreuses applications sur ces mobiles. L'énorme volume de données relatif à l'usage de la reconnaissance vocale est dirigé vers un centre d'opérations situé dans la Silicon Valley. «L'afflux de requête est tout simplement fascinant, » déclare Zig Serafin. « On se croirait dans un laboratoire de la NASA. » Certaines fonctions de la boucle de feedback sont automatisées de sorte que le moteur de reconnaissance vocale est capable d'analyser lui-même les données, » explique-t-il. « Mais certaines informations sont examinées de plus près par des experts qui peuvent ensuite apporter des modifications au système, » ajoute-t-il.

[[page]]

Les enseignements tirés de ce volume de données utilisateurs permettront à Microsoft d'avancer vers une prochaine étape de la reconnaissance vocale, notamment ce que l'entreprise appelle la « compréhension conversationnelle. » [ou traitement de la question en langage naturel, NDLR] Zig Serafin  explicite la méthode : « Ramenés à des technologies d'apprentissage, ces travaux de recherche et de développement nous permettront d'anticiper sur ce que l'utilisateur essaie de faire, » déclare-t-il. « La compréhension conversationnelle trouvera de multiples applications, » déclare de son côté Ilya Bukshteyn, directeur senior du marketing pour les applications voix chez Microsoft. « Par exemple, un utilisateur pourrait demander dans Bing : trouver un endroit où nous pourrions dîner demain soir,» dit-elle. « Le téléphone irait alors automatiquement voir nos agendas pour constater que nous serons à San Francisco. Le système saurait que nous avons déjà été mangés des sushis auparavant. Le téléphone demanderait alors si l'on veut diner à San Francisco, et si  nous aimerions manger des sushis... »

Apple intéressé par le rachat de Nuance

« En attendant, Microsoft espère rester devant Google, son principal concurrent dans ce domaine, » ajoute Zig Serafin. Pour l'instant, et pour une fois, Microsoft estime être en avance sur Google, car il offre déjà la reconnaissance vocale à un large éventail d'utilisateurs - joueurs, utilisateurs de téléphones mobiles et automobilistes -, et cela depuis une seule plate-forme. « C'est un avantage certain, » selon Bern Elliot, analyste chez Gartner. «Tellme donne à Microsoft un très gros avantage, aussi bien sur site que dans le cloud, » dit-il. «L'éditeur a donc la possibilité de proposer la reconnaissance vocale sur un nombre de marchés très différents. » En outre, l'éditeur pense avoir aussi une longueur d'avance sur le traitement des données et permet aux utilisateurs d'effectuer des recherches plus fines. Le rachat récent de Phonetic Arts par Google pourrait lui permettre d'offrir des fonctionnalités comparables. « Phonetic Arts a travaillé sur la synthèse vocale et peut générer des voix naturelles, » a déclaré Google, ce qui signifie que cette acquisition pourrait permettre à Google de fournir du contenu voix, ou des réponses à des gens qui utilisent les technologies de reconnaissance vocale. Selon Will Stofega, Microsoft a peut-être un autre avantage, celui lié à l'expérience utilisateur. Sur les téléphones tournant sous Windows Phone 7, les utilisateurs peuvent voir l'icône Tellme et une rangée de points leur indiquant que le service est en train de traiter la parole. «Ça n'a rien à voir avec la technologie, mais du point de vue de l'expérience utilisateur, c'est cool, » dit-il. « Microsoft espère utiliser des icônes similaires et promouvoir des services. Que ce soit avec Kinect ou avec Windows Mobile 7, les utilisateurs constateront qu'ils peuvent utiliser la voix de façon similaire, » a-t-il ajouté.

Google et Microsoft doivent aussi rivaliser avec Nuance, le leader dans cette niche qui travaille au développement de technologies pour la reconnaissance vocale. « Celle-ci a la réputation d'offrir la meilleure technologie en terme de voix, » confirme Bern Elliot. « Certaines rumeurs ont laissé entendre qu'Apple pourrait être intéressé par le rachat de Nuance, soit un marché de plus sur lequel Apple, Google et Microsoft seraient en concurrence. » Mais, même si toutes les entreprises ont fait des progrès dans la reconnaissance vocale, elles ont encore du pain sur la planche. « Il y a des problèmes de base comme le bruit de fond et d'autres aspects qui n'ont pas encore été vraiment résolus, » dit Will Stofega.

(...)

(14/12/2010 16:35:27)

IBM va construire un supercalculateur de 3 pétaflops en Bavière

La course mondiale aux supercalculateurs se poursuit sans relâche: l'Académie des Sciences de Bavière en Allemagne a annoncé qu'il avait choisi IBM pour construire un superordinateur qui, une fois complet en 2012, sera capable d'offrir une puissance de calcul de 3 pétaflops, ce qui en fait potentiellement le supercomputer le plus puissant du monde.

Baptisé SuperMUC (le suffixe MUC est emprunté au code de l'aéroport de Munich), cet ordinateur, qui sera sous la tutelle du centre SuperComputing Leibniz de l'Académie des sciences à Garching en Bavière, sera à la disposition des chercheurs européens qui désirent sonder les frontières de la médecine, de l'astrophysique et d'autres disciplines scientifiques en remplacement du HLRB II lancé en 2006. «Avec ce nouveau supercalculateur, la communauté des chercheurs (...) reçoit un coup de pouce pour être à la pointe de la concurrence internationale », a déclaré dans un communiqué Martin Jetter, président du conseil d'administration d'IBM Allemagne.

Refroidissement à l'eau chaude

Le système reposera sur 14 000 Intel Xeon installés dans des serveurs IBM System x iDataPlex. Il utilisera aussi un système de refroidissement appelé Aquasar développé par Big Blue, qui utilise l'eau chaude pour refroidir les processeurs. Cette solution devrait permettre de réduire de 40% la consommation d'électricité du système de refroidissement selon la compagnie. « Le SuperMUC proposera des performances optimales tout en améliorant l'efficacité énergétique globale grâce à l'utilisation d'un parallélisme massif exploitant les processeurs multicoeurs Intel et le refroidissement à l'eau chaude reposant sur la technologie mis au point par IBM. Cette approche permettra à l'industrie de développer des supercalculateurs toujours plus puissants tout en gardant sous contrôle la consommation d'énergie », a déclaré dans un communiqué Arndt Bode, président du conseil d'administration du centre Supercomputing Leibniz.

La technologie Aquasar d'IBM

Une fois construit, le système devrait se classer sur une des marches du podium du Top500 des ordinateurs les plus puissants du monde, publié deux fois par an. Dans  l'édition la plus récente de ce classement mondial, le système chinois Tianhe-1A, offrant une puissance de 2,67 pétaflops, occupe la première place. Très convoitée, cette-ci sera donc disputée par le SuperMUC, mais également par les supercalculateurs du Laboratoire national de Lawrence Livermore et de Oak Ridge, tous deux financés par le Département américain de l'énergie, engagé dans la construction d'un ordinateur 20 pétaflops. Les deux devraient être opérationnels en 2012. Le gouvernement fédéral allemand et le Land de Bavière ont contribué au financement du SuperMUC, qui fera partie de la Partnership for Advanced Informatique in Europe (PRACE), un programme visant à fournir aux chercheurs européens des ressources en calcul.

Illustration: Futur centre de recherche Leibniz-Rechenzentrum LR, crédit D.R.

(...)

(02/12/2010 16:53:07)

La technologie des puces CMOS photoniques rapproche IBM de l'exaflopique (MAJ)

Selon les chercheurs de Big Blue, l'utilisation de puces CMOS Integrated Silicon Nanophonics pourrait multiplier par mille les performances des supercalculateurs actuels. Cette technologie intègre des modules électriques et optiques sur une seule pièce de silicium. « Les signaux électriques créés au niveau du transistor sont convertis en impulsions lumineuses, permettant aux puces de communiquer à des vitesses plus rapides, » a déclaré Will Green, un scientifique et chercheur en photonique silicium chez IBM. Selon le fondeur, cette technologie pourrait être à l'origine d'énormes progrès en terme de puissance dans le domaine des supercalculateurs. Aujourd'hui, les plus rapides des super ordinateurs plafonnent à environ 2 pétaflops, soit deux millions de milliards de calculs par seconde. La technologie photonique pourrait les faire passer à l'exaflops, soit un miliard de milliards d'opérations en virgule flottante par seconde. « IBM pourra ainsi atteindre son objectif de construire un ordinateur exaflopique d'ici à 2020, » a précisé Will Green.


Les chercheurs d'IBM, Yurii Vlasov, William Green and Solomon Assefa (de G à D) qui ont travaillé sur la puce CMOS Integrated Silicon Nanophotonics.

« Dans un système exaflopique, les interconnexions doivent être en mesure de faire circuler plusieurs exaoctets par seconde à travers le réseau, » a expliqué le chercheur. « C'est une étape intéressante pour les constructeurs qui envisagent de réaliser des systèmes exaflopiques dans les 10 ans à venir. » Celui-ci ajoute qu'il serait possible d'intégrer de multiples modules photoniques sur un substrat unique ou sur une carte mère. Les supercalculateurs les plus récents utilisent déjà la technologie optique pour faire communiquer les puces entre elles, mais essentiellement au niveau du rack et surtout sur une seule longueur d'onde. « L'avancée d'IBM permettra une communication optique simultanée et sur plusieurs longueurs d'onde, » a-t-il déclaré. La fabrication de puces utilisant cette technologie peut se faire sur une ligne de production standard et ne nécessite aucun appareillage spécial, ce qui rend sa production très intéressante en terme de coût-efficacité, selon IBM.

L'optique à la place des liens cuivre

Les essais actuels ont porté sur la fabrication d'une plaque CMOS de 130 nanomètres, mais IBM veut démarrer la production avec des «  plaques CMOS de moins de 100 nm», a dit Will Green. La technologie vise à remplacer les liens cuivre largement utilisés aujourd'hui pour le transfert de données entre les puces. L'optique peut être plus rapide, que ce soit sur des distances de quelques centimètres ou de quelques kilomètres, et consomme moins d'énergie. IBM espère pouvoir également utiliser un jour un système optique pour faire communiquer entre eux les transistors. « Intel effectue également des recherches dans la technologie nanophotonique sur silicium, mais n'a pas encore montré qu'elle savait réaliser l'intégration de la photonique et de l'électronique, » indique Will Green.

Les avancées d'IBM dans la nanophotonique arrivent après plus de 10 années de recherche menées dans ce domaine dans ses laboratoires à travers le monde. Au-delà de l'informatique haute performance, l'entreprise pense que sa technologie pourra être utilisée dans d'autres domaines, celui des réseaux en particulier.

(...)

(01/12/2010 15:04:02)

Le calcul intensif version Nvidia bientôt sur les mobiles

Cet apport, quand il sera effectif, devrait marquer un saut qualitatif dans la capacité pour les appareils mobiles comme les smartphones et les tablettes à exécuter des applications riches en multimédia. « L'avantage de CUDA dans les appareils mobiles est incroyable », a déclaré le PDG de Nvidia, Jen-Hsun Huang, dans une interview à Tokyo. CUDA gère certaines tâches gourmandes en ressource processeur comme le montage vidéo ou de retouche d'image en déchargeant le CPU vers le GPU. Ce système entraîne une amélioration significative de la vitesse de traitement des données.

Les puces graphiques sont limitées dans le type de traitement qu'elles peuvent réaliser, mais, avec plus de 100 coeurs dans un processeur graphique moderne contre seulement quelques coeurs dans un processeur, elles sont particulièrement bien adaptées à ces tâches (image et vidéo). L'architecture CUDA combine des logiciels et du matériel. Elle a été rapidement adoptée pour les supercalculateurs, dont plusieurs sont basés sur des combinaisons de GPU Nvidia et les processeurs Intel. Plus récemment, elle est arrivée dans l'entreprise et auprès du grand public pour accélérer des actions comme l'encodage vidéo dans Adobe Premiere CS5.

Découvrir un autre univers plus réactif

« Imaginez que nous apportons cette capacité CUDA dans un téléphone mobile » a dit Jen-Hsun Huang. Il a pris comme exemple une application capable de reconnaître une bouteille de vin depuis une image prise par le smartphone, puis l'interface se connecterait à un service de cloud computing pour fournir des informations sur le vin, le meilleur prix et quand il doit être bu. « Vous regardez à travers votre appareil photo et une multitude d'informations sur votre environnement sont disponibles instantanément » souligne le dirigeant et d'ajouter que l'intégration de cette architecture ne devrait voir le jour que d'ici 2 ou 3 ans.

La stratégie de Nvidia sur le mobile repose sur le processeur Tegra à base de technologies ARM. Le dual-core Tegra 2 a déjà été utilisé dans certains produits, comme le Folio de Toshiba et prochainement dans une tablette pour Dell. (...)

(01/12/2010 12:35:21)

Microsoft donne le coup d'envoi d'Imagine Cup 2011

C'est parti pour la neuvième édition d'Imagine Cup. La compétition technologique organisée par l'éditeur est donc ouverte aux lycéens et étudiants de plus d'une centaine de pays des cinq continents. Elle s'inscrit une nouvelle fois dans le cadre des « 8 objectifs du millénaire pour le développement des Nations-Unies ». Comme l'an dernier, les jeunes talents du monde entier sont invités à concevoir leur projet autour de la problématique suivante : « Imaginez un monde où la technologie nous aide à répondre aux enjeux les plus cruciaux de notre société ». Leurs projets devront participer à réduire l'extrême pauvreté et la faim, assurer l'éducation primaire pour tous, promouvoir l'égalité des sexes et l'autonomisation des femmes, réduire la mortalité infantile, améliorer la santé maternelle, combattre les maladies, assurer un environnement durable et mettre en place un partenariat mondial pour le développement.

Parrainage de la campagne du millénaire et d'Emmaüs

Tout porte à croire que cet objectif sera une nouvelle fois atteint lors de cette édition tant l'engouement pour ce championnat du numérique ne se dément pas d'année en année. La dernière édition avait réuni à Varsovie pas moins de 325 000 étudiants représentant 126 pays, dont 10 000 en France. En 2003, date de sa création, 1 000 candidats d'une vingtaine de pays, dont une trentaine de Français s'y étaient inscrits
« La passion est là et les yeux continuent de briller », a déclaré d'emblée Bernard Ourghanlian, directeur technique et sécurité et responsable de la division plateforme et écosystème chez Microsoft France, à l'occasion d'un point presse. «Seulement cinq années nous séparent désormais de la date butoir visant à réaliser les huit grands défis lancés par les objectifs du millénaire pour le développement, a poursuivi Fabrice Ferrier, coordinateur en France de cette campagne. C'est l'une des principales raisons pour laquelle nous nous sommes associés à cette initiative. » A ses côtés, l'association Emmaüs parrainera cette année la compétition en France.
Les étudiants peuvent concourir dans cinq grandes catégories : conception de logiciels, développement embarqué, digital media, conception de jeux vidéo, et application pour Windows Phone 7, une thématique inaugurée par Microsoft dans le cadre d'Imagine Cup 2011.

Direction New-York pour la finale mondiale

Illustration : Les élèves de l'Ece remportent le bronze d'Imagine Cup 2010 dans la catégorie Systèmes embarqués . Crédit photo: Microsoft
[[page]]

Après Varsovie en 2010, la finale mondiale d'Imagine Cup aura lieu cette année à New-York, du 8 au 14 juillet prochains. Mais avant d'accéder à cette ultime étape de la compétition, les étudiants devront soumettre leurs projets à des jurés nationaux. La finale française aura lieu le 5 mai 2011 au Campus de Microsoft France, à Issy-les-Moulineaux. La compétition est ouverte à tous les profils (informaticiens, ingénieurs, designers,...), les professeurs d'écoles et d'universités peuvent également participer à l'aventure en parrainant une équipe. Il est courant à l'échelle internationale de voir des équipes constituées dans le cadre de projets scolaires, à l'initiative des enseignants. C'est le cas  de l'école d'ingénieurs parisienne ECE, dont les étudiants ont remporté le bronze l'année dernière dans la catégorie « systèmes embarqués »  Ou des jeunes de l'établissement 3IL de Rodez, qui ont terminé sur la 3ème marche du podium lors de l'Imagine Cup 2010 en « conception de jeux vidéo ».  Pour les équipes lauréates, Imagine Cup peut également être un tremplin professionnel permettant à leurs projets de prendre vie. Ainsi, environ un quart des équipes présentes en finale mondiale d'Imagine Cup créent une start-up à l'issue de cette expérience. En 2010, 43 des 119 équipes participant à la finale mondiale ont accepté l'invitation qui leur a été faite de rejoindre le programme de soutien des start-ups de Microsoft. Parmi celles-ci 29 ont rempli les conditions pour bénéficier effectivement du programme.

La dernière édition a ainsi vu naître la structure GraphicStream (développement de jeux vidéo), lancée par le coach et mentor de la catégorie « conception de jeux vidéo » Valentin Billotte, vite rejoint par Luc Aubert et Alexandre Bardelot, médaillés de bronze lors de la finale mondiale d'Imagine Cup 2010. Le jeu Arcane's Tower Defense, développé par GraphicStream a d'ailleurs remporté le concours Pitch Your App sur Windows Phone 7, le 7 octobre dernier. Cette année, le renouvellement du partenariat avec la SSII Avanade et le parrainage de Gilles Babinet, entrepreneur et business angel (fondateur de Musiwave), devraient permettre aux étudiants de se préparer à l'aventure start-up.

Illustration : Les élèves de l'Ece remportent le bronze d'Imagine Cup 2010 dans la catégorie Systèmes embarqués . Crédit photo: Microsoft



(...)

< Les 10 documents précédentsLes 10 documents suivants >