Flux RSS

Technologies 'vertes'

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

272 documents trouvés, affichage des résultats 221 à 230.

< Les 10 documents précédentsLes 10 documents suivants >


(20/08/2008 16:03:25)

Hypertransport augmente sa bande passante et réduit la consommation énergétique

Le consortium Hypertransport annonce la version 3.1 de sa spécification. Hypertransport est un bus local rapide utilisé par exemple entre le processeur et la mémoire, le processeur et les entrées-sorties ou entre plusieurs processeurs. Au programme de HT 3.1, une augmentation significative de la vitesse d'horloge à 3,2 GHz contre 2,6 GHz avec la version 3.0. Fort de sa technique de doublement du taux de transfert (DDR ou Double data rate), Hypertransport s'offre ainsi une bande passante de 6,4 Gigatransferts par seconde. En 32 bits, la bande passante agrégée atteint 51,2 Go/s théoriques. Mais le 16-bits restant le mode le plus courant, le consortium lui-même préfère parler de 25,6 Go/s. L'organisation profite par ailleurs de cette annonce pour valider la spécification HTX 3 destinée aux cartes mères de type E-ATX. Celle-ci triple la bande passante avec jusqu'à 5,2 gigatransferts par seconde (avec une vitesse d'horloge de 2.6 GHz) contre 1,6 gigatransferts par seconde précédemment. De plus, la connexion peut désormais être « coupée » en deux pour mieux partager la mémoire entre deux CPU par exemple. Un besoin de plus en plus courant pour les configurations multiprocesseurs à haute-performance. Activer ou désactiver la connexion en fonction de l'activité du système Green IT oblige, HTX3 intègre aussi des techniques visant à économiser l'énergie. Il devient possible pour le fabricant du périphérique utilisant Hypertransport d'activer et désactiver la connexion en fonction de l'activité du système. Le consortium technologique Hypertransport qui définit la technologie éponyme compte parmi ses membres AMD, Apple, Cisco, Dell, HP, IBM, NVIDIA, et Sun Microsystems. Selon l'organisation, en 2008, environ 63 millions de produits seront livrés avec la technologie 3.0, sachant que les versions 1.0 et 2.0 continuent d'intégrer certaines offres. A l'occasion de son événement développeurs IDF qui se tient actuellement à San Francisco, Intel ne devrait pas manquer de dévoiler la prochaine version de son QuickPath, grand rival d'Hypertransport. (...)

(20/08/2008 14:56:30)

IDF 2008 : Intel lance ses disques SSD

Sous le nom d'High-Performance SATA Solid State drive, Intel s'apprête à lancer une série de disques SSD allant de l'ordinateur grand public au serveurs. Ces disques seront disponibles dans des capacités allant de 32 à 160 Go, et utilisant les mémoires NAND de type SLC (Single Level Cell, qui stocke un bit d'information par cellule de mémoire) comme MLC (Multiple Level Cell, qui stocke plusieurs bits d'information par cellule). Les premiers disques disponibles seront les Intel X-18 M et X25-M Mainstream pour le marché des postes clients (portable ou de bureau) livrés d'ici trente jours. Disponibles respectivement en version 1,8 pouces et 2,5 pouces, ils auront des capacités de stockage de 80 et 160 GO, avec une vitesse allant jusqu'à 250 Mo/s en lecture et 70 Mo/s en écriture. Selon Intel, ils sont conçus pour fournir une durée de vie utile minimale de 5 ans aux PC. Contrairement aux disques durs classiques, les disques SSD ont en effet un nombre limité d'écriture/lecture disponible. Sans vouloir le chiffrer précisément, Intel a préféré annoncer un temps moyen avant la panne (MTBF- Mean Time Before Failure) de 1,2 million d'heures. Intel lance aussi une gamme pour les serveurs [[page]] Le constructeur promet également un temps de réaction plus rapide que ses concurrents avec des gains pouvant aller jusqu'à 26 fois en lecture aléatoire et 23 fois en écriture aléatoire. HP pour ses portables grands public, Lenovo pour ses ThinkPad professionnels et Fragbox pour ses PC dédiés aux joueurs ont d'ores et déjà annoncé qu'ils intégreront ces disques SSD dans leur gamme. Au moins en option pour les clients. Le marché des serveurs et des baies de stockage n'est pas oublié. Pour eux, Intel a lancé la gamme Extreme. Le premier exemplaire, l'Intel X25-E sera basé sur la technologie SLC. Il sera disponible en version 32 Go et 64 Go, avec des vitesses allant jusqu'à 250 Mo/s en lecture et 170 Mo/s en lecture, et un MTBF de 2 millions d'heures. Selon Intel, ces disques permettront d'obtenir des serveurs jusqu'à 6 fois plus rapides que leurs concurrents utilisant des disques durs classiques et consommant jusqu'à 98% d'énergie en moins (les disques SSD n'ont pas de partie mobile à activer ni à refroidir). Sun qui va les inclure dans certains de ses serveurs promet lui une performance trois fois plus importante pour dix fois moins d'énergie consommée. A condition de les utiliser sous Solaris. Les disques X25-E Extrême feront leur apparition dans les serveurs d'ici 90 jours. Et pour l'ensemble de sa gamme, Intel annoncera ses prix d'ici 40 jours. (...)

(19/08/2008 09:39:51)

IDF 2008 : le "Green IT" tente de faire débat

Alors que l'Intel Developer Forum n'ouvrira formellement ses portes que le 19 août à 16h15 (heure de Paris), le fondeur a déjà entamé les débats. En plaçant ce 'Day Zero' sous le signe d'une tendance forte du moment : le "Green IT". Pour ce faire, il a organisé les Eco-Technology Great Debates, trois séries de tables rondes autour des mesures de l'impact énergétique des salles serveurs ou de leur configuration (haute densité ou non, salle classique en béton ou conteneur). Chacun suit sa propre voie Si l'affiche et les débats semblaient alléchants, le résultat a été plus qu'indigeste. En effet, si toutes les parties en présence semblaient d'accord sur la nécessité de contrôler les dépenses énergétiques des salles de serveurs et de leurs composants, chacun suit sa propre voie pour y arriver sans guère se soucier des autres. A charge pour l'utilisateur final de faire les choix d'un datacenter à l'autre suivant ses besoins du moment et les recommandations contradictoires de ses différents fournisseurs (y compris les éditeurs de logiciel). Pas de point commun entre les consortiums Green IT [[page]] Le meilleur exemple en a été la session "ICT Metrics from Silicon through Data Center" (Évaluations informatiques du silicium à la salle de serveur). Chaque consortium créé autour du "Green IT" récemment avait son représentant : Kathleen Fisher d'Intel pour Climate Savers Computing Initiative, Andy Rowson d'AMD pour le Green Grid, Katharine Kaplan pour l'EPA (Agence fédérale américaine pour l'environnement à l'origine de la norme Energy Star) et Ray Pfeifer pour le projet Energy Efficient Data Center Demonstration Center. Et chacun d'expliquer quelles sont les critères d'évaluation que prendront en compte les futures spécifications de son organisme. Sans qu'aucun d'entre eux n'ait un seul point commun : certains mesurent la productivité énergétique globale de la salle de serveur (Green Grid) quand d'autres s'attaquent à la consommation par coeur de processeur en activité ou en veille (EPA). Magnus Herrlin, président du cabinet de conseil ANCIS, basé à San Francisco, a même développé son propre indice, le Rack Cooling Index (RCI) pour vérifier l'efficacité des systèmes de ventilation d'une salle de serveur. Reste aux organismes de mesure à s'accorder entre eux Alors qu'il reste encore de nombreux points de contention, notamment en ce qui concerne les serveurs lames, l'EPA prévoit un troisième brouillon de sa spécification à venir pour la mi-octobre et une version finale pour janvier 2009. Le tout en collaboration avec les travaux de la Commission européenne. Climate Savers Computing Initiative annonce quant à lui avoir bientôt finalisé sa norme pour les postes de travail et s'attaquer désormais aux serveurs. Si pour Andy Rowson du Green Grid, "sans mesure il n'y a pas de contrôle", encore faut-il ne pas multiplier les outils sans les accorder entre eux. (...)

(19/08/2008 09:41:09)

Les lames SGI adoptent des alimentations électriques économes

SGI propose désormais l'ensemble de ses serveurs lames Altix avec des alimentations électriques conformes à 80 PLUS. Le constructeur avait commencé à livrer ses machines ainsi équipées dès janvier 2007. 80 Plus est un programme nord-américain qui incite les constructeurs informatiques à équiper leurs PC et leurs serveurs avec des alimentations qui consomment moins d'électricité. Il a démarré à l'initiative d'opérateurs de réseaux d'électricité américains qui ont réuni 5 millions de dollars pour financer une telle transition. Ne pas perdre trop d'énergie en cours de route Les tests 80 Plus consistent entre autres à évaluer la capacité des alimentations à ne pas perdre d'énergie en cours de route. Dans le cas de SGI, ils ont concerné des alimentations destinées à des applications de datacenters en configurations redondées. Les alimentations des serveurs SGI ont atteint un minimum de 89% d'efficacité aux tests 80 Plus. Cela signifie que pour 100 Watt en entrée, les machines du constructeurs disposent de 89 Watt pour exécuter des applications lourdes de calcul scientifique, par exemple. SGI rappelle que nombre d'alimentations continuent de « perdre » 40% de l'énergie en chemin avant que celle-ci arrive aux serveurs. (...)

(12/08/2008 10:23:16)

Green IT, SOA et cloud computing auront un impact business dans 2 à 5 ans, prédit Gartner

Alors que les technologies du Web 2.0 devraient montrer leur impact dans les entreprises d'ici moins de deux ans, il faudra attendre entre deux et cinq ans pour que le Green IT, la SOA et le 'cloud computing' aient un effet significatif sur les systèmes d'information. Telle est la dernière prédiction de Gartner, qui a publié l'édition 2008 de son célèbre « hype cycle » des technologies émergentes. Le cycle défini par le cabinet prévoit cinq phases. La phase 1, « technology trigger », voit apparaître une nouvelle technologie, annoncée par leurs inventeurs et largement reprise et épluchée par les médias. Cela engendre une forte visibilité en très peu de temps, débouchant sur la phase 2, « peak of inflated expectations », ces technologies promettant monts et merveilles. Bien sûr, cela tarde à se concrétiser, la visibilité retombe, c'est le « trough of disillusionment », la phase 3. Entre-temps, la technologie mûrit, et ses premiers usages en entreprise laissent entrevoir de belles possibilités, c'est la phase 4, le « slope of enlightment ». Puis vient la phase 5 du « plateau of productivity », lorsque les technologies finissent d'être émergentes pour devenir d'un usage courant. Microblogging, réseaux sociaux, téléprésence et SSD prochaines technos à émerger Le phénomène du Green IT (informatique verte, ou développement durable appliqué aux systèmes informatiques) serait selon Gartner quasiment au somment de la phase 2, mais il lui faudrait encore de deux à cinq ans avant d'entrer dans une phase de large adoption. Placés en fin de phase 1, le cloud computing (services informatiques accessibles à la demande via Internet) et le microblogging (services de type Twitter, de blog en temps réel via des messages très courts) demanderaient un délai identique. [[page]]De même, les plateformes de réseaux sociaux, les technologies de téléprésence (vidéoconférence en haute définition et à l'échelle 1:1) et les disques à mémoire électronique (SSD) qui tous descendent la courbe de la phase 3, n'émergeront pas véritablement avant deux ans. L'impression 3D dans 5 à 10 ans, la réalité augmentée dans plus de 10 ans Parmi les nouveautés technologiques disposant de 5 à 10 années de maturation devant elles et ayant un impact potentiel très élevé, Gartner place l'impression 3D, qui permettrait, explique Gartner, de produire des composants au plus près du lieu de la demande. Réalité augmentée (mêlant images réelles et de synthèse) et robots mobiles ont plus de 10 ans devant eux, selon les analystes, avant d'émerger. Quant aux architectures orientées services (SOA), elles sont sorties de la phase de désillusion et cheminent doucement vers un usage courant, phase où sont déjà les services Web. Mais Gartner prévoit encore une fois ici un délai de 2 à 5 ans avant une large adoption des SOA par les entreprises. (...)

(06/08/2008 11:11:59)

L'impact environnemental des TIC étudié par l'ONU

Le groupe de travail Green ICT (TIC vertes) créé par l'ITU (International Telecommunications Union) s'est vu confier par l'ONU la double mission de mesurer et de réduire l'impact des TIC (technologies de l'information et de la communication) sur l'environnement. La création fait suite à l'invitation de Ban Ki-moon, le secrétaire général de l'ONU, faite à l'ITU d'accélérer ses travaux autour du réchauffement climatique. Rappelons que depuis l'accord du Protocole de Kyoto, en 1997, le nombre des utilisateurs des TIC dans le monde a triplé ! Présidé par David Faulkner, responsable des recherches sur les accès réseaux de BT, le groupe étudiera dans un premier temps les dommages environnementaux provoqués par les TIC. Dans un deuxième temps, c'est sur la réduction de ces dommages qu'il s'attardera, en particulier au profit des secteurs de l'énergie, des transports et du bâtiment. « Les TIC contribuent au réchauffement global », a convenu Hamadoun Touré, le secrétaire général de l'ITU, « mais le plus important est qu'elles sont la clé de la surveillance et de la réduction de ses effets. » L'ITU, selon les méthodes d'estimation de l'impact des TIC sur les changement climatiques qui sont retenues actuellement, pourrait aider à réduire ces émissions de l'ordre de 15% à 40%. (...)

(01/08/2008 14:36:21)

Microsoft et l'AEE signalent la qualité de l'eau de baignade

Un petit coup d'oeil sur Internet pour connaître la qualité de l'eau sur votre plage préférée avant de partir en vacances ? C'est ce que Microsoft et l'Agence européenne pour l'environnement (AEE) proposent depuis le 31 juillet. Water Watch permet en effet d'identifier rapidement sur une carte Virtual Earth l'état de l'eau dans 21 000 sites de 27 pays d'Europe, avec une icône verte, orange ou rouge. Une seconde icône signale par ailleurs l'avis des internautes sur cette même qualité de l'eau. Water Watch s'inscrit dans le cadre plus global d'un projet d'observatoire en ligne de la Terre « Eye on Earth » lancé par les deux partenaires. Ce point d'accès unique aux informations environnementales européennes sera mis en oeuvre petit à petit sur une durée de cinq ans. Il commence fort judicieusement en cette période d'été avec des indicateurs de la qualité de l'eau de baignade. L'objectif d'Eye on Earth est une observation plus ambitieuse de l'évolution de la situation environnementale sur le Vieux Continent. Ainsi, après la qualité de l'eau, suivront des indicateurs sur la pollution de l'air, la présence de pétrole dans l'eau, l'évolution de la biodiversité, la pollution des sols, l'érosion des côtes ou encore le niveau d'ozone au sol. Des liens avec d'autres services de surveillance automatique de l'environnement sont également prévus. Ia possibilité de noter sa plage en ligne Le projet s'appuie sur la cartographie de Virtual Earth et sur la gestion de données, en particulier géospatiales, dans SQL Server 2008. Microsoft et l'EEA feront en sorte de compiler des données provenant de différentes sources afin d'afficher une information simple et fiable que tout un chacun peut manipuler. Le système permet aussi d'attribuer soi-même une note en ligne à un site. Eye on Earth évoluera vers une combinaison d'informations in-situ et de données récupérées par satellite. Dans leur communiqué, les deux partenaires rappellent que l'évacuation des eaux usées dans les eaux de baignade ou la présence de produits chimiques peuvent mettre en danger la santé des baigneurs : des maux d'estomac, des infections respiratoires, mais aussi des pathologies plus graves comme la dysenterie, les hépatites et les encéphalites. (...)

< Les 10 documents précédentsLes 10 documents suivants >