Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 2191 à 2200.
< Les 10 documents précédents | Les 10 documents suivants > |
(17/04/2007 14:46:10)
IDF : Intel modernise ses outils de développement pour le multi-coeur
Intel adapte ses outils de développement à la programmation pour processeurs multi-coeurs. Le constructeur inaugure quatre outils : Intel Thread Checker (pour Windows et Linux) détecte les erreurs dans le codage du parallélisme, Intel Thread Profiler (pour Windows) indique, quant à lui, combien de oeurs sont effectivement utilisés par le processus en cours et Intel VTune Performance Analyzer (pour Windows et Linux) permet d'accélérer les performances d'un logiciel. Enfin, Intel Threading Building blocks (pour Windows, MacOS X et Linux) est une librairie en C++ qui permet aux développeurs d'écrire une seule fois une application sans se préoccuper du processeur qui la fera tourner. Avec les éléments de cette librairie, l'application s'adaptera automatiquement aux nombres de coeurs disponibles. Ces logiciels prennent en compte les derniers processeurs commercialisés par Intel (Core 2 Extreme QX6800 et Core 2 Quad 6600) ainsi que les systèmes d'exploitation les plus récents : Windows Vista, mais aussi Novell Suse Linux Enterprise Server, Red Hat Enterprise Linux et Fedora Core. (...)
(17/04/2007 12:00:30)IDF : le Penryn 40% plus véloce que les Intel Core 2 Extreme
Le Penryn est incontestablement la vedette de l'Intel Developer Forum, qui ouvre ses portes aujourd'hui à Pékin (une première, voir notre encadré ci-dessous). Le fabricant de puces a mis de côté son discours actuel sur les puces moins gourmandes et autres composants plus écologiques et économiques pour revenir sur le terrain de la performance pure, avec cette puce gravée en 45 nm, contre 60 nm pour son champion actuel, le Core 2 Extreme QX6800. D'après Sean Maloney, vice-président exécutif d'Intel en charge des ventes et du marketing, le Penryn accroîtra de 40% les performances des PC par rapport au Core 2 Extreme QX6800, une puce quadri-coeur cadencée à 2,93 GHz. Le Penryn, attendu pour fin 2007 ou début 2008, recourt à un nouveau matériau pour l'isolation, le « high-k metal gate » (composant à haute constante diélectrique), qui permet de réduire la finesse de gravure sans provoquer d'échauffement fatal au comportement de la puce. Ce changement de matériau constitue, selon Sean Maloney, la plus grande avancée dans les technologies de puces électroniques depuis 40 ans. (...)
(16/04/2007 16:28:59)IDF : Intel promet du « Core 2 Duo sous stéroïdes »
A la veille de l'IDF (Intel Developer Forum) qui doit ouvrir ses portes à Pékin demain, Intel commence à distiller quelques informations sur ses futurs produits. En premier lieu, une version « rafraîchie » de Santa Rosa, le remplaçant de la plateforme Centrino, qui doit arriver le mois prochain dans les ordinateurs portables. Cette évolution de Santa Rosa reposera sur une puce gravée à 45 nm, le Penryn. Les premiers Penryn sont attendus au premier semestre 2008, mais Mooly Eden, vice-président et directeur général de la division Plateforme mobile d'Intel, a exhibé un portable équipé d'une puce Penryn lors d'une conférence de presse afin de démontrer l'état d'avancement de la technologie. Mooly Eden a par ailleurs précisé que Santa Rosa, qu'il a décrite comme « un Core 2 Duo sous stéroïdes », bénéficierait de la technologie 'Dynamic Acceleration', qui permet d'élever la fréquence d'un des deux coeurs d'un processeur lorsque l'autre réduit sa consommation. Ainsi la puce maintient un niveau de performance étale, sans risque d'échauffement - au contraire de l'overclocking, souligne Mooly Eden, qui consiste à augmenter la fréquence d'un processeur à des niveaux pour lesquels il n'a pas été conçu. Intel est toutefois bien conscient qu'il existe une frange d'utilisateurs - les joueurs invétérés pour ne pas les nommer - particulièrement désireuse de fréquences élevées. Une puce spécifique, toujours pour ordinateurs portables, sera conçue pour eux. Elle simplifiera l'overclocking, charge à l'utilisateur de compléter son ordinateur d'un système de refroidissement approprié. (...)
(16/04/2007 14:17:19)Serveurs écolos : IBM remplace un disque dur par de la mémoire Flash
Tout à sa stratégie de répondre à l'engouement écolo dans les serveurs, IBM annonce la sortie de serveurs lames plus économes en électricité et en émission de CO2 - "low carb" selon le constructeur. Les modèles, qui agrandiront les gammes BladeCenter et Systems x, reposent ainsi sur les processeurs basse consommation d'Intel et d'AMD : le Dual Core Xeon (35 et 40 watts) et le Quad Core Xeon (68 watts), pour l'un; l'Opteron bi-coeur (50 watts), pour l'autre. En option, il sera également possible de remplacer l'un des disques durs de ces serveurs par une mémoire flash à 4 Go, "pour y installer une partition Linux ou pour y stocker des données", indique IBM dans un communiqué. Selon le constructeur, ce type de mémoire consommerait 95 % d'électricité en moins qu'un disque classique. Autre élan écologique mis en place par IBM, l'ajout de connexions réseaux telles qu'Infiniband et de l'Ethernet à 10 GHz pour faciliter la virtualisation, et donc réduire le nombre final de serveurs. Les serveurs lames à base d'Opteron à 1,8 GHz sont commercialisés à partir de 1 979 $, ceux à base de Dual Core Xeon, à partir de 2 809 $, et ceux à base de Quad Core Xeon, à partir de 3 067 $. (...)
(12/04/2007 18:03:15)IBM empile les composants pour accélérer l'accès aux données
Plus que la vitesse de calcul, le frein majeur à la puissance des serveurs et des mainframes actuels reste la vitesse à laquelle le processeur accède aux données en mémoire. Pour IBM, la solution est simple : il faut réduire le trajet de l'un à l'autre. Le constructeur a annoncé la fabrication prochaine de puces « empilées » pour résoudre ce problème. A la différence de ce que proposent déjà certains fondeurs, la solution n'implique pas d'empiler simplement un processeur sur de la mémoire, puis de relier le tout par des câbles. Il s'agit au contraire de créer ce montage dès que les pièces sont fondues dans le silicium. A ce stade, de minuscules trous sont créés dans le processeur et la mémoire, puis remplis avec un alliage métallique conducteur. Un transfert 1000 fois plus rapide Selon Lisa Su, responsable du développement processeur chez IBM, ce système offrira 100 fois plus de chemin d'accès aux données, permettant un transfert de la mémoire vers le processeur 1000 plus rapide qu'avec les techniques actuelles. « Aujourd'hui, la plupart des puces ont deux à quatre coeurs, et les gens parlent déjà de les étendre jusqu'à 8, 16 ou 32. Mais en réalité, ce qui bloque la fabrication des processeurs est la distance entre la mémoire et les coeurs. Cette technique nous donne un nouvel espace de liberté», affirme Lisa Su. IBM délivrera les premiers processeurs utilisant cette technologie dès le second semestre 2007, avant de se lancer dans une réelle commercialisation en 2008. Ils seront d'abord utilisés dans les réseaux sans fil et les téléphones cellulaires, avant d'intégrer les processeurs Power pour serveurs et Blue Gene pour mainframes. Pour Dave Lammers de VSLI Research, IBM ne devrait pas rester longtemps seul sur ce secteur. Selon lui, Intel et AMD devraient sortir leurs propres versions de puces empilées d'ici 2010 : « C'est une grande avancée. La bande passante va augmenter, et cela pourrait aider à résoudre les problèmes de consommation électrique et de dissipation de chaleur. » (...)
(12/04/2007 12:30:25)Vingt huit nouveaux membres pour le Green Grid
Une semaine avant sa première réunion technique à Denver, le Green Grid s'étoffe de vingt-huit membres. Ce consortium rassemble différentes sociétés high-tech dans le but de trouver de nouvelles méthodes (innovations technologiques ou changements de procédés) pour avoir des salles de serveurs (data centers) plus économes en énergie et plus efficaces. Les 28 nouveaux membres regroupent des sociétés très diverses allant du cabinet d'études (451 Group) aux opérateurs de télécommunication (BT), en passant par Cisco, Novell ou Brocade. L'occasion pour eux de mettre en avant leurs propres produits et services pour réduire la consommation des salles de serveurs. En première ligne la virtualisation, qui doit fournir une méthode pour réduire le nombre des serveurs physiques. Ainsi, Novell fait la promotion de ZENworks. « Les clients doivent trouver des solutions pour rendre leurs salles de serveurs efficaces énergiquement, sans ralentir leurs affaires, » précise Erice Anderson, vice-président en charge de l'ingénierie chez Novell. (...)
(11/04/2007 13:04:08)Le Cern élargit sa grille de calcul en Angleterre
Dix mille processeurs répartis sur 17 sites en Angleterre n'étaient pas suffisants pour analyser les données issues du grand collisionneur de hadrons (LHC) du Cern. Le Particle Physics and Astronomy Research Council (PPARC) devra réinvestir 15,9 M£ (soit 23 M€) d'ici 2011 pour couvrir tous les besoins en puissance de calcul pour analyser cette expérience. « Le LHC est la plus grande expérience de physique mondiale, qui tente de recréer des conditions rencontrées pour la dernière fois, quelques instants après le Big Bang », s'enthousiasme le professeur Keith Mason, directeur exécutif du PPARC. « Les détecteurs vont recevoir un déluge de données, allant jusqu'à 15 Go par secondes - soit l'équivalent de trois DVD à la seconde. Pour gérer et archiver ces données, il faut une nouvelle approche : la grille de calcul. » Et de fait, de 17 sites, la grille qui analyse les résultats - le GridPP - passera avec ce nouveau financement à 20 sites. Au total, le GridPP aura coûté 30 M£ (soit 44 M€) depuis son lancement en 2001. Selon Keith Mason, c'est un investissement qui pourrait également être rentable pour les nouvelles technologies : « La dernière grande expérience du Cern avait un problème d'analyse similaire, et pour y répondre le World Wide Web est né. D'ici quelques années, la grille sera peut être aussi familière aux particuliers que le web aujourd'hui. » (...)
< Les 10 documents précédents | Les 10 documents suivants > |