Flux RSS

R et D

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

956 documents trouvés, affichage des résultats 851 à 860.

< Les 10 documents précédentsLes 10 documents suivants >


(12/04/2007 18:03:15)

IBM empile les composants pour accélérer l'accès aux données

Plus que la vitesse de calcul, le frein majeur à la puissance des serveurs et des mainframes actuels reste la vitesse à laquelle le processeur accède aux données en mémoire. Pour IBM, la solution est simple : il faut réduire le trajet de l'un à l'autre. Le constructeur a annoncé la fabrication prochaine de puces « empilées » pour résoudre ce problème. A la différence de ce que proposent déjà certains fondeurs, la solution n'implique pas d'empiler simplement un processeur sur de la mémoire, puis de relier le tout par des câbles. Il s'agit au contraire de créer ce montage dès que les pièces sont fondues dans le silicium. A ce stade, de minuscules trous sont créés dans le processeur et la mémoire, puis remplis avec un alliage métallique conducteur. Un transfert 1000 fois plus rapide Selon Lisa Su, responsable du développement processeur chez IBM, ce système offrira 100 fois plus de chemin d'accès aux données, permettant un transfert de la mémoire vers le processeur 1000 plus rapide qu'avec les techniques actuelles. « Aujourd'hui, la plupart des puces ont deux à quatre coeurs, et les gens parlent déjà de les étendre jusqu'à 8, 16 ou 32. Mais en réalité, ce qui bloque la fabrication des processeurs est la distance entre la mémoire et les coeurs. Cette technique nous donne un nouvel espace de liberté», affirme Lisa Su. IBM délivrera les premiers processeurs utilisant cette technologie dès le second semestre 2007, avant de se lancer dans une réelle commercialisation en 2008. Ils seront d'abord utilisés dans les réseaux sans fil et les téléphones cellulaires, avant d'intégrer les processeurs Power pour serveurs et Blue Gene pour mainframes. Pour Dave Lammers de VSLI Research, IBM ne devrait pas rester longtemps seul sur ce secteur. Selon lui, Intel et AMD devraient sortir leurs propres versions de puces empilées d'ici 2010 : « C'est une grande avancée. La bande passante va augmenter, et cela pourrait aider à résoudre les problèmes de consommation électrique et de dissipation de chaleur. » (...)

(12/04/2007 17:05:11)

IBM veut promouvoir les réseaux électriques intelligents

IBM s'associe avec CenterPoint Energy, un distributeur de gaz et d'électricité basé au Texas, pour accélérer l'adoption de l'Intelligent Utility Network (IUN). Chaque consommateur d'électricité définit une enveloppe budgétaire à ne pas dépasser, le système ajuste alors la consommation en temps réel, en fonction de la production et de la fluctuation des prix, les deux étant liées aux Etats-Unis. L'intérêt des producteurs d'électricité est d'approvisionner ainsi l'ensemble des clients tout en réalisant des économies d'énergie de l'ordre de 25%. L'industrie électrique a en effet toujours en mémoire le fameux black-out qui a privé de courant une partie des foyers américains pendant l'été 2003, alors que les systèmes de climatisation tournaient à plein régime. Le système qui nécessite l'installation de compteurs/régulateurs chez les clients et d'un équipement sophistiqué chez les producteurs, convient aussi pour l'alimentation en gaz. Il permet également de rétablir le réseau en cas d'incident. CenterPoint Energy va dépenser 750 M$ dans les cinq prochaines années pour ce projet. Les deux partenaires espèrent associer à leurs travaux d'autres entreprises américaines, asiatiques et même européennes. L'alliance entre les deux sociétés n'est pas une nouveauté puisque Big Blue avait signé en juillet 2005 avec CenterPoint Energy un accord de partenariat pour distribuer des services à haut débit dans certains foyers de Houston à travers le réseau électrique. Les 2 entreprises font également partie du comité P1901 de l'IEEE chargé de définir un standard pour le CPL. (...)

(11/04/2007 13:04:08)

Le Cern élargit sa grille de calcul en Angleterre

Dix mille processeurs répartis sur 17 sites en Angleterre n'étaient pas suffisants pour analyser les données issues du grand collisionneur de hadrons (LHC) du Cern. Le Particle Physics and Astronomy Research Council (PPARC) devra réinvestir 15,9 M£ (soit 23 M€) d'ici 2011 pour couvrir tous les besoins en puissance de calcul pour analyser cette expérience. « Le LHC est la plus grande expérience de physique mondiale, qui tente de recréer des conditions rencontrées pour la dernière fois, quelques instants après le Big Bang », s'enthousiasme le professeur Keith Mason, directeur exécutif du PPARC. « Les détecteurs vont recevoir un déluge de données, allant jusqu'à 15 Go par secondes - soit l'équivalent de trois DVD à la seconde. Pour gérer et archiver ces données, il faut une nouvelle approche : la grille de calcul. » Et de fait, de 17 sites, la grille qui analyse les résultats - le GridPP - passera avec ce nouveau financement à 20 sites. Au total, le GridPP aura coûté 30 M£ (soit 44 M€) depuis son lancement en 2001. Selon Keith Mason, c'est un investissement qui pourrait également être rentable pour les nouvelles technologies : « La dernière grande expérience du Cern avait un problème d'analyse similaire, et pour y répondre le World Wide Web est né. D'ici quelques années, la grille sera peut être aussi familière aux particuliers que le web aujourd'hui. » (...)

(04/04/2007 17:47:01)

Qualcomm poursuit de nouveau Nokia

Et deux de plus ! Qualcomm vient de déposer deux plaintes aux Etats-Unis contre Nokia. Le fabricant de téléphones mobiles violerait cinq brevets déposés par Qualcomm. La première plainte, déposée devant la Cour de justice du Western District de l'Etat du Wisconsin se rapporte à deux brevets. Ces derniers protègent des encodeurs de conversation vocale, utilisés dans certains portables GSM pour numériser les signaux audio, avant leur transmission. La seconde poursuite a quant à elle été déposée à la Cour de justice de l'Eastern District du Texas. Les trois brevets en cause concernent le téléchargement d'applications et autres contenus numériques via les réseaux GPRS ou Edge, et deux technologies d'accélération de transmission des paquets de données sur réseau GSM. Qualcomm indique s'être adressé à ces tribunaux car ils jugent rapidement les affaires de violation de brevets. Le fabricant de puces demande que Nokia cesse de vendre les téléphones utilisant ces brevets d'une part, et des dommages pour les terminaux déjà vendus d'autre part. Le mois dernier, Nokia a lancé un attaque contre Qualcomm, estimant que ce dernier n'a pas à monnayer l'accès à certains de ses brevets. (...)

(30/03/2007 11:11:27)

Alcatel-Lucent atteint 25,6 Térabits/s sur une fibre optique

Lors de la conférence OFC/NFOEC d'Anaheim en Californie, Alcatel Lucent a annoncé que ses équipes de R&D avait atteint les 25,6 Tbit/s sur une seule fibre, en utilisant 160 canaux en multiplexage en longueur d'onde WDM. Le test a été effectué sur 3 tronçons de 80km. L'équipementier pulvérise ainsi le record du monde fixé depuis septembre 2006 à 14 Tbit/s. "Les réseaux optiques représentent un facteur clé dans la révolution du haut débit sur IP à laquelle nous assistons aujourd'hui dans le monde entier," a affirmé Romano Valussi, président des activités optiques d'Alcatel-Lucent. "L'expérience que nous acquérons lors de ces essais aidera Alcatel-Lucent à concevoir les systèmes dotés de la plus grande densité spectrale d'information et de la plus large bande passante possibles dont nos clients bénéficieront lorsque des réseaux de ce type seront déployés », conclut-t-il. (...)

(29/03/2007 17:53:25)

Intel dévoile son futur : des processeurs à 45nm et des doubles quadri-coeurs

Intel a levé le voile sur ses futurs processeurs. La première génération à venir, connue sous le nom de code Penryn, est attendue pour la fin de cette année. Il s'agira de reprendre l'architecture des Core 2 et des Xeon actuels, mais en réduisant la finesse de gravure de 65 nanomètres à 45 nanomètres et en utilisant un nouveau matériau pour l'isolation, le « high-k metal gate ». Grâce aux économies de consommation électrique ainsi générées, Intel veut produit des puces Penryn cadencées au delà de la barrière des 3 GHz - Intel avait levé le pied sur la cadence à cause des problèmes d'échauffement, préférant multiplier les coeurs pour accroître les performances. Autre amélioration par rapport aux Core 2 Duo, la taille de la mémoire cache de niveau 2 devrait augmenter de 50%. Soit 6 Mo pour les double-coeurs et 12 Mo pour les quadri-coeurs. Pour l'instant, six types de processeurs sont prévus : des processeurs bi-et quadri-coeurs pour ordinateurs de bureau, un processeur bi-coeur pour portables, des processeurs bi-et quadri-coeurs pour serveurs et un dédié aux serveurs haut-de-gamme. Nehalem : 16 threads simultanés pour un double quadri-coeur La deuxième génération de puces, baptisée Nehalem, est attendue pour sa part en 2008. Ici, il s'agira de refondre complètement l'architecture des processeurs multi-coeurs en s'inspirant de ce qu'a fait AMD avec ses Opteron. Profitant également de la technologie à 45 nanomètres, Nehalem permettra de faire tenir jusqu'à deux processeurs quadri-coeurs sur un même socket, et chaque coeur pourra exécuter deux tâches de traitement (threads) indépendantes en simultané. Soit 16 threads simultanés pour un double quadri-coeur, une aubaine pour les applications parallèles. Comme chez les Opteron d'AMD, ces processeurs pourront communiquer « point à point » avec leurs voisins, et auront un lien plus rapide avec la mémoire, grâce à des contrôleurs de mémoire embarqués. Certains processeurs Nehalem auront également un contrôleur graphique intégré. Au final, selon Pat Gelsinger, directeur général du groupe Digital Enterprise chez Intel, les processeurs Nehalem seront extrêmement modulables pour s'adapter aux besoins des clients. Au lieu de « variations de chipsets avec des coeurs communs », Pat Gelsinger promet « des chipsets standardisés avec des coeurs personnalisés ». (...)

< Les 10 documents précédentsLes 10 documents suivants >