Flux RSS

R et D

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

956 documents trouvés, affichage des résultats 111 à 120.

< Les 10 documents précédentsLes 10 documents suivants >


(07/03/2011 14:01:40)

Avec le ray tracing, Intel place le jeu sur mobile dans le cloud

Le fondeur est en train de mettre au point des puces et de réécrire des jeux pour la technologie du ray tracing. Celle-ci pourrait faire entrer le gaming dans le cloud, comme l'a indiqué Intel. Dans un futur proche, dès que ces nouvelles puces seront prêtes, les utilisateurs d'appareils mobiles pourront jouer à des jeux complexes en 3D, hébergés dans un cloud. Certes, il faudra une capacité élevée de calcul pour profiter du ray tracing en temps réel. Celle-ci sera fournie par des clusters de serveurs puissants, équipés de plusieurs processeurs, et par des unités de traitement vectoriel capables d'effectuer des tâches en parallèle, afin de délivrer des images précises aux tablettes et aux smartphones.

Pour l'instant, les appareils mobiles sont utilisés de manière occasionnelle pour les jeux, mais le hardware, de plus en plus sophistiqué, de ces appareils, est capable de traiter des graphiques en haute résolution. Par exemple, les capacités graphiques de l'iPad 2 d'Apple, annoncé la semaine dernière, ont été très améliorées comparativement à la version précédente. Désormais, l'Optimus 2X de LG est capable de lire de la vidéo en 1080p. De même, lors du dernier Mobile World Congress, certains ont déjà pu voir tourner un jeu Xbox 360 sur une tablette intégrant la future puce mobile de Nvidia, Kal-El. Daniel Pohl, un chercheur d'Intel, a indiqué dans un post que le fondeur avait réécrit Wolfenstein, l'un des premiers jeux de tir subjectif, pour la technologie ray-tracing, et précisé qu'il était très réaliste. « Dans une cour, Il y a une voiture rouge dont la peinture est très brillante, avec un effet de miroir sur la carrosserie. Avec le ray-tracing, il est possible d'obtenir un très bon rendu de cette scène, » a déclaré Daniel Pohl. « Avec le ray tracing les joueurs pourront par exemple voir les reflets sur la carrosserie de la voiture et repérer d'éventuels tireurs, » a ajouté le chercheur. Le ray tracing ajoutera également plus de détails visuels, les ombres notamment, de manière à renforcer les effets 3D dans un jeu.

Une importante capacité de calcul


Les écrans actuels sont capables d'afficher en millions de pixels, et chaque pixel reçoit un rayon lumineux pour être éclairé. « C'est un défi en terme de puissance de calcul nécessaire, » a déclaré John Owens, professeur agrégé en génie électrique et informatique à l'Université Davis de Californie. Il faut projeter des milliards de rayons en continu sur les objets afin de restituer avec précision les actions et l'univers changeant à l'intérieur d'un jeu. La modélisation est encore plus complexe s'il y a beaucoup d'objets en mouvement et une grande diversité de scènes dans le jeu. « La raison pour laquelle les cartes graphiques classiques ou la plupart des jeux ne sont pas conçus pour le ray tracing, c'est parce que cela demande des capacités de calcul très difficiles à fournir, » a déclaré le professeur.

Intel tente de relever ce défi avec sa puce serveur expérimentale, du nom de Knights Ferry, basée sur la nouvelle architecture MIC (many integrated core) d'Intel. Le processeur, annoncé en mai 2010 lors de l'International Supercomputing Conference, a été conçu pour le calcul graphique intensif et l'informatique haute performance. Knights Ferry comporte 32 coeurs x86, dotés chacun d'une unité de traitement vectoriel de 512-bit. Les core tournent à une vitesse d'horloge de 1,2 GHz, et la puce prend en charge OpenCL et DirectX de Microsoft, deux frameworks incluant des outils de programmation parallèle. Knights Ferry intègre également des caractéristiques de la puce Larrabee, qui devait être le premier processeur graphique d'Intel, et abandonné par le fondeur. En 2009, Intel avait même fait la démonstration des capacités ray tracing de cette puce lors de l'Intel Developer Forum dans un jeu intitulé Enemy Territory: Quake Wars, mais le public n'avait pas été convaincu par les performances.

Intel a annoncé que le premier processeur basé sur l'architecture MIC, sera la puce Knights Corner, laquelle comprendra plus de 50 coeurs. Selon les déclarations faites par un responsable d'Intel sur un blog en février, cette première puce, qui apportera le ray tracing aux jeux sur mobiles, devrait être lancée au cours du premier semestre 2012.

(...)

(02/03/2011 15:06:38)

CeBit 2011 : Une interface neuronale pour envoyer des messages « sans les mains »

Appelé intendiX, le système se compose d'une calotte équipée d'un certain nombre d'électrodes d'électro-encéphalographie (EEG) et d'un amplificateur d'ondes cérébrales miniature. L'ensemble est géré par une application Windows qui analyse et décode les ondes du cerveau. L'amplificateur peut être connecté à un PC via Bluetooth, de façon à ne pas obliger l'utilisateur à s'asseoir à côté de l'ordinateur. Les utilisateurs ciblés par l'entreprise auront besoin de l'aide d'un membre de la famille ou d'une personne pour mettre en place la calotte. « Habituellement, les systèmes d'analyse EEG demandent des heures de formation pour apprendre au manipulateur à identifier les ondes cérébrales normales et à identifier les principales variations. Mais le système intendiX sait recueillir les données nécessaires en 5 à 10 minutes seulement, » a déclaré Markus Bruckner, un ingénieur qui travaille au développement et à la recherche chez G.tec.

La méthode d'intendiX consiste à chercher sur un tracé les ondes connues sous le nom de P300 ERP (liées à un événement), qui se manifestent 300 millisecondes après un stimulus provoqué par une lumière vive. « Le signal est identique à celui que l'on perçoit quand on voit les feux de freinage d'une voiture s'allumer, » explique le chercheur. Pour écrire un message avec intendiX, l'utilisateur doit regarder chaque lettre une par une sur un clavier virtuel affiché sur un écran. Le logiciel fait clignoter une colonne de lettres jusqu'à ce que le cerveau de l'utilisateur réagisse au flash de la colonne contenant la lettre choisie, puis fait clignoter une ligne jusqu'à ce qu'il détecte une réponse. Le logiciel « écrit » ensuite la lettre située à l'intersection de la ligne et de la colonne. « Au début, cela prend 40 secondes par lettre, mais en laboratoire, nous avons atteint les 0,9 seconde par caractère, » ajoute Markus Bruckner.

20 ans de travaux pour arriver à ce résultat

Il a fallu plus de deux décennies pour en arriver là. Dans une publication scientifique datant de 1988 et intitulée « Parler du haut de votre tête : Une prothèse mentale pour utiliser les capacités cérébrales liées à un événement, » Larry Farwell et Emmanuel Donchin écrivaient que «les lettres pouvaient être communiquées de manière fiable à raison de 1 caractère toutes les 26 secondes, soit 2,3 caractères par minute » en détectant les variations de l'onde cérébrale P300 émise face au clignotement d'une grille de lettres et de symboles 6-par-6. Avec leur prothèse mentale, les deux chercheurs voulaient aider des personnes souffrant de paralysies dues à un «  syndrome d'enfermement », afin qu'elles puissent appeler le personnel soignant ou faire part de leurs besoins. IntendiX peut aussi être utilisé dans ce contexte, mais également pour des besoins moins essentiels, comme communiquer sur les réseaux sociaux, puisqu'il existe «  une interface pour Twitter, » comme l'a précisé le chercheur.

G.Tec a également fait la démonstration d'une autre interface chargée de détecter une onde différente : lorsqu'un sujet regarde une lumière qui clignote à une fréquence constante, la rétine transforme ce signal visuel en oscillations cérébrales de fréquences stables, appelées potentiels évoqués visuels stationnaires (ou steady-state visual evoked potentials - SSVEP). L'interface émet des fréquences différentes via quatre Led blanches. Selon la fréquence des ondes cérébrales émises, le système arrive à déterminer quelle Led l'utilisateur regarde fixement. « Pour sa démonstration, G.tec a utilisé l'interface comme joystick pour diriger un robot et le faire se déplacer en avant, en arrière, à gauche ou à droite, cela sans avoir besoin de placer les Led à proximité, » a déclaré Armin Schnürer, responsable de l'ingénierie logicielle chez G.tec. « Par exemple, les Led peuvent être installées sur différents supports, comme une poignée de porte ou un interrupteur, ce qui permettrait à une personne de contrôler certains éléments de son environnement en les regardant. Aujourd'hui, les deux systèmes utilisent des électrodes « humide », c'est-à-dire qu'il faut recourir à un gel conducteur pour capter les ondes cérébrales. « Mais l'entreprise travaille sur une nouvelle version utilisant des électrodes sèches, » a confirmé Markus Bruckner.

Ce n'est pas la première fois que l'entreprise se déplace au CeBit : en 2007, G.tec avait montré une interface neuronale de la taille d'une boîte à chaussures qui pouvait être utilisée pour jouer au jeu vidéo Pong après quelques heures d'apprentissage. Mais le système présenté au salon cette année est beaucoup plus compact et plus rapide à mettre en oeuvre.

(...)

(24/02/2011 12:30:12)

Un ordinateur complet vraiment micro

L'ordinateur, appelé puce Phoenix, mesure un peu plus d'un millimètre cube et a été conçu pour contrôler la pression oculaire chez les patients atteints de glaucome. « C'est le premier vrai système informatique complet à l'échelle millimétrique » explique Dennis Sylvester, professeur à l'Université du Michigan et l'un des chercheurs sur ce projet.

Dans l'ordinateur, on retrouve un microprocesseur de très faible puissance, un capteur de pression, de la mémoire, une batterie fine, une cellule solaire et une radio sans fil avec une antenne qui peut transmettre des données à un dispositif de lecture externe installé près de l'oeil. En matière de consommation électrique, l'ordinateur s'allume toutes les 15 minutes pour récupérer et transmettre les informations. En restant en mode sommeil la plupart du temps, ce système ne consomme en moyenne que 5,3 nW (nanoWatt) à chaque fois qu'il se met en marche. Il dispose d'un système photovoltaïque qui nécessite 10 heures de lumière à l'intérieur ou 1,5 heures de lumière du soleil pour charger complètement la batterie. Le composant radio de la puce est compatible avec la plupart des fréquences radio et transmettre ainsi les informations au lecteur. Les données peuvent ensuite être utilisées au sein d'un dossier médical électronique du patient.

Arriver au nanomètre

Selon les chercheurs, les micro-ordinateurs et la connectivité de réseaux sans fil pourraient un jour être utilisés pour surveiller la pollution, l'intégrité de certaines structures, assurer une traçabilité intelligente de n'importe quel objet. « Notre travail est unique en ce sens que nous pensons à des systèmes complets dans lesquels tous les composants sont de faible puissance et peuvent tenir dans la puce » a déclaré Dennis Sylvester. « Nous pouvons collecter des données, les stocker et les transmettre. Les applications pour les systèmes de cette taille sont infinies. »

Les chercheurs ont présenté leurs travaux à l'International Solid-State Circuits Conference (ISSCC) de San Francisco. Le travail est dirigé par trois membres du corps professoral du département de génie électrique et informatique de l'Université du Michigan. David Blaauw, un des universitaires explique que quand les puces atteindront l'échelle nanométrique, alors des centaines d'ordinateurs pourront être montés sur une même plaque de silicium et réaliser des tâches de surveillance multiples.

Les chercheurs mettent en avant la loi de Bell, stipulant qu'il y a une nouvelle classe d'ordinateurs plus petits, moins chers qui apparaît tous les dix ans. Cet axiome a été émis dans les années 1960. « Dans les années 80, on parlait d'ordinateurs personnels, dans les années 90, on a vu l'émergence de l'ordinateur portable et le début du deuxième millénaire est résolument orienté vers les smartphones, la prochaine décennie sera certainement le temps des nano-ordinateurs » concluent les chercheurs.

(...)

(24/02/2011 10:16:26)

Facebook, Netflix, Apple, sociétés les plus innovantes selon le MIT

Technology Review, un magazine du MIT centré sur les technologies de pointe, a choisi des entreprises « qui utilisent leurs inventions pour remodeler leurs industries et pour transformer nos manières de vivre ». Les entreprises de la liste TR50 vont de l'industrie de l'énergie à celle de l'informatique et d'Internet, en passant par la biomédecine et les matériaux.

Facebook a gagné sa place dans cette liste car son site s'adapte rapidement et devient une plate-forme que les publicitaires veulent de plus en plus utiliser. Netflix donne une vision du futur de la consommation de programmes télévisés avec son service de vidéo à la demande bon marché. Apple s'est démarqué grâce à des produits innovants et mobiles qui fonctionnent tous à partir d'un même logiciel facile d'utilisation. Nissan de son côté rend la technologie verte de ses nouvelles voitures abordable, selon le magazine.

« Même si les entreprise de la liste TR50 sont très diverses, elles mettent en lumière le pouvoir des nouvelles idées », explique Jason Pontin de Technology Review, et d'ajouter, « notre liste met en exergue les innovations susceptibles d'avoir les impacts les plus importants dans les prochaines années. »

La liste complète des entreprises TR50 de 2011 sera présentée dans l'édition de mars/avril de Technology Review

(...)

(22/02/2011 17:28:08)

Un anti-laser au secours des ordinateurs optiques

Bien que les scientifiques connaissent depuis longtemps différentes manières pour absorber la lumière, les résultats de la recherche des universitaires de Yale sont uniques  car les chercheurs affirment pouvoir capter la lumière sur une longueur d'onde particulière. « Après quelques recherches, nous avons constaté que plusieurs physiciens faisaient allusion à cette notion dans les livres et les articles scientifiques, mais que personne n'avait jamais développé concrètement l'idée », a déclaré le physicien A. Douglas Stone, qui co-dirige avec Hui Cao le groupe de chercheur à l'université de Yale. Un résumé de leur travail apparaît dans la revue Science du 18 février. Le laser (Light Amplification by Stimulated Emission of Radiation) génère de la lumière cohérente, c'est-à-dire un flux de photons lumineux qui ont tous la même fréquence, amplitude et forme d'onde.

Les chercheurs ont alors élaboré ce qu'ils appellent un absorbeur parfaitement cohérent (CPA), une plaquette de silicium qui piège et dissipe une lumière cohérente entrante de avec une longueur d'onde prédéfinie. En d'autres termes, un laser produit une lumière cohérente, le CPA absorbe la lumière cohérente. L'énergie de la lumière est alors dissipée en chaleur qui peut produire de l'énergie électrique. Un tel anti-laser pourrait aider à résoudre l'un des plus grands défis dans la construction d'un ordinateur optique, à savoir la gestion et la manipulation de la lumière utilisée pour coder les informations.

Des travaux inscrits dans la durée

Par exemple, un CPA pourrait être utilisée dans un commutateur optique et absorber la lumière d'une longueur d'onde particulière tout en laissant passer la lumière d'autres longueurs d'onde. Il pourrait également détecter la lumière entrante et servir de guide pour diriger des faisceaux de lumière vers certaines destinations. Cela pourrait conduire à des commutateurs optiques qui remplaceront les transistors dans les futurs PC. Les ordinateurs optiques devraient être beaucoup plus puissants que ceux d'aujourd'hui avec la réduction de la taille des composants.

Comme pour tout prototype, le CPA a des limites, que les chercheurs estiment pouvoir surmonter avec plus de travail. L'actuel anti-laser absorbe 99,4% de toute la lumière qu'il reçoit, mais les scientifiques aimeraient obtenir ce chiffre de 99,999 %. La taille de la plaquette de silicium est de un centimètre de largeur, qui pourrait être réduite à un élément d'à peu près 6 microns.

(...)

(22/02/2011 14:16:23)

Des chercheurs de Stanford améliorent sensiblement le débit des réseaux sans fil

L'astuce permet d'obtenir des communications en full-duplex, et donc d'envoyer et de recevoir des données simultanément sur la même fréquence, ce qui était, pensait-on jusqu'à présent, physiquement impossible. Le spectre radioélectrique étant de plus en plus encombré, la recherche visant à augmenter la vitesse sans avoir besoin de fréquences supplémentaires, est devenue une sorte de Graal de l'ingénierie électrique. Quand un dispositif radio est en transmission, ses émissions sont trop fortes pour lui permettre de recevoir des signaux. C'est comme deux personnes en conversation : si l'une parle, il lui est impossible d'entendre ce que l'autre dit. Chacun doit parler à tour de rôle. Et jusqu'à aujourd'hui, c'est sur ce mode que les transmissions radio ont fonctionné.

Le procédé autorisant le doublement des vitesses consiste à utiliser un système de réduction de bruit, comme ceux que l'on trouve dans les casques audio. Le dispositif de transmission sait exactement ce qu'il envoie. Il peut donc filtrer les émissions sortantes de manière à entendre les fréquences entrantes plus faibles. C'est ainsi qu'on arrive à avoir des communications bidirectionnelles sur une même fréquence. « Les ouvrages de référence disent que ce n'est pas possible à réaliser, » dit Philip Levis, l'un des chercheurs appartenant à l'équipe d'inventeurs, et par ailleurs professeur adjoint en sciences informatiques et en ingénierie électrique à Stanford. « Le nouveau système remet complètement en question nos hypothèses sur la manière de concevoir des réseaux sans fil. » L'an dernier, l'équipe de Stanford avait déjà montré son invention lors du MobiCom 2010, une conférence réunissant des experts en réseaux mobiles, et avait même remporté un prix pour « la meilleure démonstration. » Certains chercheurs leur ont dit qu'ils ne s'attendaient pas à ce que cela marche. Mais quand ils ont vu que c'était possible, ils ont trouvé ça tellement évident, qu'ils ont avancé que cela avait probablement déjà été inventé !

Encore un peu de temps en vue d'une standardisation


Il y a encore du chemin à parcourir avant que la technologie n'apparaisse dans les équipements grand public ou professionnels. Les chercheurs continuent à travailler pour améliorer leur invention, en particulier pour augmenter les distances auxquelles fonctionnent habituellement les réseaux sans fil classiques. En outre, les réseaux sans fil reposent sur des normes qui ont été adoptées par l'ensemble des fabricants, ce qui permet d'utiliser par exemple un ordinateur portable Dell avec un routeur D-Link. Ces normes sont contrôlées par l'Institute of Electrical and Electronics Engineers (IEEE) et l'invention devra être approuvée par le groupe de travail 802.11, avant d'être hissée au rang de standard. Cela prendra probablement plusieurs années, mais ce délai pourrait être réduit par le fait que l'invention ne nécessite pas de réserver de nouvelles fréquences.

L'équipe cherche également à breveter son invention, ce qui pourrait limiter les implémentations de la technologie et la réserver à des fabricants qui peuvent se permettre de payer des droits pour l'utiliser. Si bien que cette technologie pourrait faire son apparition dans les futurs appareils WiFi en option, comme extension des normes sans fil existantes. Ces modalités ne sont pas exceptionnelles chez les fabricants d'appareils sans fil. Et il est facile d'imaginer une société comme Apple payer pour utiliser cette technologie à utiliser dans sa station AirPort et ses ordinateurs, par exemple, afin de doubler la vitesse des réseaux sans fil de ses appareils et donner à ses produits un avantage concurrentiel.

(...)

< Les 10 documents précédentsLes 10 documents suivants >