<span>Conçu pour une utilisation en temps réel, Jailhouse est un hyperviseur ouvert et léger, qui se positionne en complément de Xen et KVM plutôt qu'en concurrent.</span>

L'Image du jour

Conçu pour une utilisation en temps réel, Jailhouse est un hyperviseur ouvert et léger, qui se positionne en complément de Xen et KVM plutôt qu'en con...

Start-up 2014, les nouveaux maîtres de la Silicon Valley

Dernier Dossier

Start-up 2014, les nouveaux maîtres de la Silicon Valley

En juin dernier, nous étions de retour à San Francisco et dans la Silicon Valley avec une dizaine de journalistes européens pour la quinzième édition ...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

ESPACE PARTENAIRE

Webcast

FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER

Flux RSS

Datacenter

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS, Inscrivez-vous

2720 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(02/09/2014 12:54:36)

ParisTech Entrepreneurs accueille 4 start-ups

4 start-ups vont être soutenues dans le développement de projets numériques innovants par Paristech Entrepreneurs durant le troisième trimestre 2014.  DCbrain, DreamQuark, ATRev Software, et L2 Technologies viennent clôturer le premier semestre 2014 des comités de sélection de l'incubateur.

Crée en 2014, DCbrain développe et commercialise une solution permettant de piloter, fiabiliser et optimiser les datacenters. La solution utilise la puissance des outils d'analyses prédictives du big data et du Machine Learning pour collecter, piloter et optimiser en temps réel les infrastructures physiques des centres de calcul. La jeune pousse DreamQuark développe quant à elle des solutions d'analyse de données innovantes autour du deep-learning pour le domaine de la santé.  Son fondateur a mis en place plusieurs techniques d'analyse de données et analyses pionnières au sein de l'expérience Atlas menée par le CERN.

ATRev Software propose un service de radio à la demande disponible sur smartphone, tablette et web. La solution est développée autour d'un moteur propriétaire de collecte et d'analyse de données dans les flux audio permettant un ciblage précis de l'audience et du mode de consommation. Enfin, la start-up L2 Technologies développe une plateforme informatique de mise en oeuvre de systèmes d'investissement autonomes. Ses automates visent à contribuer au bon fonctionnement des marchés financiers en détectant et corrigeant les imperfections, telles que les déficits de liquidité et les incohérences de prix.

Des projets innovants soutenus depuis 1999 par ParisTech Entrepreneurs

ParisTech Entrepreneurs structure et soutient les projets numériques innovants en France depuis 1999, et a accompagné la création de plus de 300 entreprises. Implanté sur deux sites, à Paris et Sophia Antipolis, ses équipes proposent aux porteurs de projets un accompagnement personnalisé sur 18 mois, un accès facilité aux organismes de soutien à l'innovation et au financement et bien sûr au réseau ParisTech, ses chercheurs et laboratoires, ses anciens élèves et jeunes diplômés, ses grandes entreprises partenaires. Adossé à l'école Télécom ParisTech, l'incubateur entretient des relations privilégiées avec les diplômés de cette école et à ceux des écoles de ParisTech, mais est ouvert à tous les porteurs de projets.

(...)

(01/09/2014 17:22:51)

Les traitements Hadoop arrivent dans Docker

Conçue à l'origine pour faciliter le travail des développeurs web, la plate-forme de containers Linux Docker pourrait aussi être une aubaine pour les applications dédiées au traitement des grands volumes de données. L'équipe à l'origine d'Altiscale, la solution Hadoop-as-a-Service développée par Raymie Stata, l'ancien CTO de Yahoo, travaille en étroite collaboration avec la communauté Docker pour intégrer la technologie à Yarn (Yet Another Resource Negotiator), le planificateur de tâches livrée avec Hadoop 2.0.

M. Stata indique que ce développement est particulièrement important pour son entreprise, ainsi que pour tous ceux qui utilisent Hadoop dans un environnement multi-tenant. Non seulement Docker fournit une solution autorisant le déploiement rapide d'applications sur Yarn, mais il assure également le cloisonnement entre elles. Le cloisonnement est un point important en termes de sécurité (un utilisateur peut disposer des autorisations dans un cluster qui ne s'étend pas au cluster voisin), mais aussi de performances.

Des instances multiples et cloisonnées au-dessus de Yarn

Pour une entreprise comme Cloudera, a-t-il expliqué, l'intégration avec Docker pourrait être « un vrai plus » parce que beaucoup d'utilisateurs de la distribution Hadoop sont limités aujourd'hui à des instances locales et exclusives. Cependant, comme plus en plus de clients commencent à vouloir exécuter plusieurs types de tâches - Spark et Matlab par exemple - au-dessus de Yarn, la gestion d'instances multiples et cloisonnées est arrivée sur la tapis.

Cependant, avant de pouvoir utiliser Docker avec Yarn, il est encore nécessaire d'intégrer le support des User ID (UID) de Linux, qui assurera qu'une application ne déborde pas sur une autre et ne compromet donc pas les performances et l'intégrité d'un container.

A la fin de cette année, les utilisateurs de Hadoop devraient être en mesure de commencer à utiliser des conteneurs Docker en ligne sans compromettre la sécurité de leurs données.  Reste toutefois à savoir s'ils se précipiteront vers Docker, mais Stata semble penser que le désir de maximiser l'usage de Yarn en conduira beaucoup dans cette direction.

(...)

(29/08/2014 17:29:10)

Recap IT : VMware embrasse Docker et OpenStack, Les smartwatches en force à l'IFA 2014, Google présente son drone

La rentrée IT a sonné. Elle a même commencé avant l'heure avec VMware qui, avec sa conférence VMworld 2014 qui s'est tenue à San Francisco fin août, a fait feu de tout bois. Parmi les principales annonces, on retiendra le partenariat avec Docker, la solution de conteneurisation Open Source qui monte, le lancement de sa distribution OpenStack basée sur vSphere et l'association entre VMware, Dell et Cumulus Network pour proposer une plate-forme de virtualisation du réseau intégré sur le SDN du premier. Sans compter le lancement d'EVO: Rail, une appliance qui permet de rationaliser le déploiement et la montée en charge des infrastructures virtualisées et la bêta publique de vSphere 6.0 pour améliorer l'allocation du stockage. 

Parmi les autres actualités liées à la virtualisation qui ont émaillé la semaine écoulée, on notera en particulier que la version 5.0 du logiciel de stockage distribué Ring de Scality, apporte son stockage cloud aux machines virtuelles de VMware, et aussi Simplivity qui sort une appliance Omnistack avec Cisco

Alors que l'IFA 2014, le plus grand salon européen de l'électronique grand public, n'a pas encore démarré, les constructeurs sont nombreux à faire (bien souvent volontairement) fuiter des informations sur les produits qu'ils vont présenter. C'est le cas par exemple de Sony et de LG, tous deux prêts à dégainer leurs smartwatches. Smartwatch toujours avec Samsung qui serait sur le point d'agrandir sa famille de montres connectées avec la Galaxy Gear 3. Sur le salon berlinois, on devrait également en savoir plus sur le Desire 820, le 1er smartphone Android 64 bits. En parallèle des indiscrétions strictement liées à l'IFA, d'autres sont également apparues, avec en particulier celle relative au lancement du prochain Nexus X de Google sous Android 5.0 L mais aussi d'un iPad Maxi en 2015 mais également la conférence de presse d'Apple  le 9 septembre qui devrait lever (enfin) le rideau sur l'iPhone 6, dont les fonctions et améliorations attendues ne manquent pas, ainsi que l'iWatch. 

ICReach, le moteur de recherche made in NSA

Les informations sur les dispositifs mis en place par la NSA pour scruter les faits et gestes des individus coulent à flot depuis de long mois. C'est encore le cas dernièrement avec la découverte du moteur de recherche ICReach permettant de faciliter le partage des données personnelles par la NSA avec ses alliés. Toujours dans la sécurité, la CNIL a sanctionné Orange après une fuite de données chez un prestataire ayant réalisé des opérations de marketing pour l'opérateur. 

Dans le secteur du big data, Amazon a annoncé préparer sa plate-forme de publicité en ligne pour concurrencer Google AdWords, baptisé Sponsored Links. De son côté, IBM a mis à jour Watson Discovery Advisor, la version commerciale de son système apprenant Watson, avec un gain de rapidité atteignant 240%. En France, Voyages-SNCF.com a levé le rideau sur son usine logicielle localisée à Nantes et également ses projets big data visant à améliorer la personnalisation de ses apps et son service de suggestion de voyages. Côté logiciel, Cegid a fait évoluer son offre retail qui s'ouvre davantage aux applications externes. 

La semaine qui s'est écoulée a également marquée sur le terrain du cloud l'arrivée de Salesforce 1 Community Cloud, un outil permettant de construire des sites de réseaux sociaux d'entreprise permettant aux employés, partenaires et clients de communiquer et de collaborer. Dropbox, le spécialiste du stockage cloud, a également fait parler la poudre (ou pas) avec une offre à 1 To pour 10 euros par mois, un tarif légèrement supérieur à celui de Google Drive, tout en présentant également des nouveautés en matière de partage de fichiers aux côtés de VMware et d'Amazon

A signaler par ailleurs le prototype de drone de Google, Project Wing, qui se positionne en concurrence frontale du service PrimeAir d'Amazon annoncé en décembre dernier qui prévoit lui aussi d'être taillé pour la livraison de colis par drone. De son côté la Chine, avec son OS souverain, pourrait bien trouver un moyen de contrer la suprématie de Windows dans le pays. 

(...)

(29/08/2014 17:06:21)

Pour supporter Docker, Microsoft Azure mise sur Google Kubernetes

La déferlante Docker avance sans faiblir. Après VMware qui vient juste de clamer son ralliement surprise à la cause et quelques mois après l'annonce de la solution de gestion de containers Kubernetes de Google, Microsoft vient d'expliquer qu'il allait utiliser cet outil Open Source pour supporter la technologie de Docker dans Azure. Quand on connaît le passif de Microsoft dans l'Open Source, c'est une annonce pour le moins surprenante.

Si Kubernetes permet de lancer et de gérer des containers Docker, Microsoft a également publié un outil appelé Kubernetes Visualizer qui représente graphiquement l'architecture et la topologie Kubernetes. Point essentiel, l'éditeur de Redmond a rendu public le code de son outil sur GitHub.

Docker est devenu le standard de facto

Avant Microsoft, Google, AWS, Red Hat, IBM et même VMware avaient manifesté leur intérêt pour Docker qui est en passe de devenir de facto le standard pour la technologie containers. Cette solution permet de conditionner une application dans un minimum d'espace, en mobilisant le minimum de ressources, et de la faire tourner sans utiliser de machines virtuelles et sans avoir besoin de licences logicielles pour les exécuter et les gérer. Et même s'il présente des similitudes avec l'hyperviseur de virtualisation, le container Docker est plus léger. En effet, contrairement à une machine virtuelle classique, le conteneur Docker n'a pas besoin d'intégrer un système d'exploitation complet pour fonctionner puisqu'il peut utiliser les ressources de son système hôte. Cela signifie que, par rapport à un hyperviseur, les conteneurs sont plus rapides à créer et à démarrer.

Pour Microsoft et Google, en particulier, un soutien massif à Kubernetes serait une très bonne nouvelle. Les deux firmes tentent aujourd'hui de grignoter des parts de marché à Amazon Web Services, qui domine sans partage le marché du cloud depuis le lancement de son service de stockage S3 en 2006. Si Microsoft et Google arrivent à amener la prochaine génération de développeurs sur leurs plates-formes respectives, comme AWS a su si bien le faire en 2006, les cartes pourraient être redistribuées sur le marché désormais stratégique du cloud computing.

(...)

(29/08/2014 15:45:34)

Comment SFR reconfigure ses 96 datacenters

SFR engage un plan de  refonte de ses datacenters. Point de départ de l'opération, la structure même de l'opérateur, issu d'opérations de rachats et de fusions où se sont retrouvées des marques et des sociétés comme Cegetel, AOL, LD Com, Siris, NeufTélécom.  Le parc actuel de datacenters se compose  de structures avec des tailles et des infrastructures  réseaux très différentes et en partie obsolètes. « A chaque étape, différents sites se sont ajoutés et ont continué à vivre », souligne Fabrice Cousin (en photo) directeur des datacenters de l'opérateur.

Pour lire la suite de cet article, rendez-vous sur Réseaux & Télécoms (...)

(29/08/2014 09:46:23)

Pour son PRA, le groupe Brunet a retenu Wooxo

Le groupe Brunet est un petit groupe d'ingénierie, de travaux et de services en génie climatique, génie électrique et courants faibles avec une forte orientation « développement durable ». Ses 300 collaborateurs sont répartis sur quatre sites en France et un site au Maroc. La sauvegarde des données bureautiques et des bases de données associées aux logiciels métiers comme à la gestion est évidemment essentielle.

Dans un premier temps, en 2012, tous les sites ont été équipés de serveurs de sauvegardes répliqués sur des serveurs situés au siège social en mode Box-to-box via un VPN. Chaque site a été équipé d'une solution de 4 To fournie par Wooxo tandis qu'une solution similaire de 6 To était mise en oeuvre pour le siège social lui-même. En tout, un serveur physique, 12 serveurs virtuels, 80 postes fixes et 90 terminaux nomades ont ainsi pu être sauvegardés.

En 2014, la solution a été complétée dans une optique de PRAS (Plan de reprise d'activité après sinistre). Ainsi, une baie sécurisée Allroad, également fournie par Wooxo, est venue compléter le dispositif. Cette baie est climatisée, ignifuge, étanche, anti-vol avec protection par portes closes avec des serrures trois points et dispose de 17U d'emplacements ainsi que d'un logement pour onduleurs. Montée avec 12 To de stockage, cette baie a été installée dans un datacenter distant mais à proximité du siège social auquel elle est reliée par fibre optique.

(...)

(28/08/2014 11:36:41)

Watson tellement rapide qu'il répond aux questions pas encore posées

IBM a mis à jour son service d'analyse de données Watson Discovery Advisor, la version commerciale de son système cognitif Watson, permettant d'examiner un corpus de données et d'identifier les tendances, corrélations et autres points d'intérêts pour les recherches. Annoncée comme étant 240% plus rapide que la version précédente, celle-ci serait en mesure de « fournir à l'utilisateur des pistes et des modèles de recherche même s'il ne connaît pas la question à poser », a indiqué Steve Gold, vice-président de la plateforme Watson chez IBM. Plusieurs domaines d'expertise peuvent être intéressés par ce service en particulier ceux qui collectent des grands volumes de données nécessitant de l'analyse comme les secteurs médicaux et de la finance.

Pour le moment, IBM n'a pas donné d'indication sur le tarif de Watson Discovery Advisor mais il prévoit d'en faire la démonstration ce jeudi à à New York. Watson Discovery Advisor a d'ores et déjà attiré de nombreux clients dont les entreprises spécialisées dans la santé et du secteur pharmaceutique comme Sanofi et Johnson&Johnson mais aussi le Baylor College of Medecine pour analyser 23 millions de résumés de papiers médicaux pour de la recherche sur les tumeurs. Le secteur bancaire est également intéressé.

Depuis janvier, IBM a concentré ses efforts sur Watson en créant même une division dédiée, Watson Business Group, dans lequel il investira 1 milliard de dollars et 2 000 personnes travailleront. Watson Discovery Advisor constitue l'offre commerciale du système cognitif d'IBM regroupant certaines de ces capacités dont le service cloud d'analyse de données. Il utilise un nombre de techniques de calcul pour fournir des résultats incluant le processus de langage naturel, le machine learning et la génération d'hypothèses.

(...)

(28/08/2014 10:49:02)

DevOps et méthodes agiles, piliers de l'efficacité IT de Voyages-SNCF.com

Affichant un chiffre d'affaires de 75 millions d'euros et ayant vu bondir ses effectifs de 90 à 140 en un an, Voyages-SNCF.com Technologies (VSCT), l'entité de Voyages-SNCF.com, une filiale de la SNCF, en charge de piloter l'ensemble des projets informatiques du géant de l'e-commerce, est sur un petit nuage. Il faut dire que ce ne sont pas les projets qui manquent, surtout après avoir commencé à rapatrié d'Inde depuis 2013 Euronet, le système de distribution des services du réseau de Voyages-SNCF à l'international RailEurope et créé en France pour l'occasion sur son site de Nantes son usine logicielle.

« Nous avons choisi de reonshorer Euronet pour des raisons de performance et car nous avions besoin d'une bien meilleure agilité entre les équipes métiers et les développeurs », explique Gilles de Richemond, directeur de VSCT.« Le coût du taux journalier moyen en Inde est peut être moins cher, mais ce qui nous intéresse c'est la création de valeur qui passe par l'agilité pour nous permettre de mener davantage de projets, de dépenser autant pour gagner en performance ». Hébergement et exploitation d'Euronet sont ainsi désormais localisés sur Lille, l'un des trois bastions de l'entreprise avec La Défense et Nantes. Nantes où sont justement situées les équipes en charge des opérations de recette, de test et d'intégration relatives aux projets IT de Voyages-SNCF.com.

Grâce à son usine logicielle, déclaré d'intérêt stratégique en 2012 au plus haut niveau de l'entreprise, VSCT est ainsi désormais en mesure de mettre rapidement en production ses projets, avec l'objectif d'atteindre en 2015 une fréquence mensuelle. « Nous privilégions le mode hackaton qui permet de mettre en place un POC sur un mois ce qui permet de se confronter à la réalité le plus vite possible et c'est là tout l'intérêt du développement agile », poursuit Gilles de Richemond.


VSCT

Pour Gilles de Richemond, directeur de VSCT, l'automatisation des tests et la vérification de la qualité du code au niveau des bases de règles font partie des enjeux clés de l'usine logicielle de Voyages-SNCF.com située à Nantes. 

Dans le cadre de la mise en place de son usine logicielle, VSCT a mis en place des outils Open Source (Jenkins et Sonar notamment) pour assister la production, automatiser le déploiement des apps et vérifier la qualité du code. Deux projets sont ainsi sortis de terre : un premier orienté web mobile avec automatisation des tests et vérification de la qualité du code au niveau des bases de règles, et un second centré sur la refonte des outils de distribution avec pour objectif de moderniser et vendre différemment les offres de Voyages-SNCF.com. « Cela nous permet de vérifier sans aucune opération manuelle si le bon écran s'affiche et s'assurer que des fonctions anciennes ne sont pas impactées par les nouvelles. »

1 téraoctets de logs traités quotidiennement

En termes de management, la réflexion sur l'arrivée des méthodes agiles au sein de VSCT a abouti à la nécessité de mettre en place d'équipes multicompétences et pluridisciplinaires permettant de mettre ensemble architectes, développeurs, scrum master afin de lui octroyer une certaine autonomie multi technologique et métier. Avec pour objectif que chacun puisse être en mesure de former ceux qui n'ont pas l'expertise ad hoc.

Méthodes agiles et DevOps ont été mis en place pour optimiser les développements sans faire l'impasse sur la qualité de service, inscrite en tant que préoccupation numéro 1 de l'ensemble des équipes de Voyages-SNCF.com et de VSCT et ce, dans un contexte où les volumétries à gérer sont conséquentes avec 66 millions de connexions par mois et jusqu'à 22 billets achetés par seconde en pic.

Pour répondre à cette problématique de volumétrie et d'analyse en masse des données, Voyages-SNCF.com a également été amené à s'ouvrir au big data en mettant en place des grilles de calcul Hadoop (avec des centaines de noeuds) pour traiter 1 téraoctets de logs journalier, rien que sur les données internes. « Le big data c'est le coeur du métier de la distribution qui permet de personnaliser la relation client suivant ses besoins tout en maintenant la qualité de service », a précisé Gilles de Richemond. « Le stockage ne coûtant plus trop cher, il faut produire de la donnée en masse car si aujourd'hui on ne sait pas quoi en faire, on le saura demain. » VSCT a aussi pour volonté de découvrir grâce au big data des corrélations clients pour certains offres pas encore identifiées. VSCT travaille ainsi sur l'extension de son service de suggestion de voyages (pour un prix donné comprenant l'hébergement) pour l'instant limité à 300 voyages origine-destination, pour demain atteindre des centaines de milliers de combinations tenant compte de critères différents relatifs aux conditions de voyage.

En 6 ans, l'infrastructure serveurs (physiques et virtualisés) est passée de 80 à 1 600, tous hébergés chez IBM à Lille sachant qu'un second site de production est présent à Saint-Denis pour la redondance sachant que ce dernier supporte 30% du trafic contre 70% pour le premier. Mais chacun est en mesure de tenir la charge au besoin.

(...)

(27/08/2014 15:41:19)

VMworld 2014: McAfee met à jour Security Server Suite

Lors du VMworld 2014 qui se tient actuellement à San Francisco (24-28 août), McAfee, entité de l'Intel Security Group, a dévoilé la refonte de Server Security Suite. Le vendeur de solutions de sécurité a mis l'accent sur plusieurs améliorations, en particulier sur une fonction d'optimisation des performances et sur de nouveaux outils de gestion permettant d'accroître la sécurité des serveurs dans les environnements physiques, virtualisés et cloud.

Security Server Suite comprend une série de fonctions clefs pour sécuriser les serveurs tournant dans les datacenters. La suite est composée de Essentials, qui permet de gérer les listes noires et offre une meilleure compatibilité avec les capacités de virtualisation ; Advanced, qui permet d'établir des listes noires de signatures pour contrer les attaques zero-day et protège contre les attaques APT (Advanced Persistent Threats) ; Move AV 3.5, qui offre une protection avancée contre les malwares dans les environnements de serveurs virtualisés, hébergés sur des plates-formes fournisseurs diverses. Ces outils sont intégrés au logiciel ePolicy Orchestrator.

Plus de fonctions pour sécuriser les VM 

Comme l'a annoncé McAfee lors de la conférence, la mise à jour permet le provisionnement simplifié de Security Virtual Appliance (SVA) via NSX Composer pour les déploiements Move AV ; elle offre une meilleure visibilité et un meilleur contrôle sur les communications réseau entre machines virtuelles avec Move Agentless Firewall en association avec VMware vCloud Network and Security (vCNS) ; un gestionnaire SVA pour Move AV (multi-plateforme) qui promet une gestion simplifiée de la sécurité.

McAfee a également ajouté deux connecteurs Data Center Connectors pour Microsoft Azure et OpenStack, en plus des modules existants pour Amazon Web Services (AWS) et vSphere de VMware.

 

 

 

(...)

(27/08/2014 14:19:10)

Datacenters, les nouveaux pollueurs ?

Les datacenters installés sur le sol américain consomment trop d'électricité, et plus qu'ils n'en ont besoin. Aujourd'hui, il faut 34 centrales électriques de 500 mégawatts pour alimenter l'ensemble des datacenters en fonctionnement aux États-Unis. Selon les prévisions, en 2020, pour accompagner une activité économique toujours plus dépendante du numérique, il faudra 17 centrales supplémentaires de taille équivalente pour répondre à ces nouveaux besoins en énergie. Et pour produire plus d'électricité, il faudra consommer plus de combustibles fossiles, ce qui signifie donc une augmentation des émissions de gaz à effet de serre. Mais, selon un nouveau rapport sur l'efficacité énergétique des datacenters publié par la National Resources Defense Council (NRDC), une association de défense de l'environnement, ce surcroit de pollution n'est pas une fatalité. Au total, en 2013, les datacenters installés sur le territoire américain ont consommé 91 milliards de kilowatts-heures, et ils consommeront 139 milliards de kilowatts-heures en 2020, soit une augmentation de la consommation de 53 %.

 

Le graphique ci-dessus montre l'utilisation estimée d'énergie (en milliards de kilowatts-heures), et le coût de l'énergie utilisée par les datacenters aux États-Unis en 2013 et en 2020, avec le nombre de centrales électriques nécessaires pour répondre à la demande. La dernière colonne indique les émissions de dioxyde de carbone (CO2) en millions de tonnes (Source : NRDC). 

Selon le rapport de la NRDC, en améliorant l'efficacité énergétique des centres de calcul, il serait possible de réduire le gaspillage d'énergie d'au moins 40 %. L'association a listé les freins à l'efficacité énergétique : les serveurs dits « comateux » ou serveurs fantômes, qui consomment de l'énergie sans exécuter un quelconque travail ; le sur-provisionnement des ressources informatiques ; le recours insuffisant aux solutions de virtualisation ; des modèles d'approvisionnement qui ne prennent pas en compte la question de l'efficacité énergétique. « Typiquement, un serveur n'utilise pas plus de 12 % à 18 % de sa capacité, et 30 % des serveurs sont des serveurs fantômes », affirme le rapport.

Les géants du cloud parmi les plus efficaces

La NRDC s'est intéressée aux conséquences de l'inefficacité énergétique des datacenters au niveau national et a demandé à plusieurs entreprises, dont Microsoft, Google, Dell, Intel, The Green Grid, Uptime Institute et Facebook d'examiner ses résultats. « Ces échanges ont donné lieu à des contributions techniques importantes », a précisé l'association. Dans son rapport, le NRDC fait une nette distinction entre les grands datacenters gérés par les grands fournisseurs de cloud, dont la consommation d'énergie ne représente que 5 % de la consommation totale des datacenters, et les petits centres de calculs, moins efficaces. Le secteur offre « de nombreux exemples de centres de calcul ultra-efficaces », note le rapport. Ajoutant que « ceux-ci ne posent pas de problème ». Mais « ce sont les milliers d'autres, utilisés par les entreprises commerciales et l'administration, et les petits datacenters, corporate ou multi-propriétaires, qui posent problème », fait valoir le document.

Les efforts accomplis par les grands fournisseurs de cloud en matière d'efficacité énergétique « conduisent à imaginer que le problème est en grande partie résolu », a déclaré Pierre Delforge, directeur du département chargé de suivre l'efficacité énergétique du secteur high-tech à la NRDC, « mais cela ne correspond pas à la réalité, car il faut prendre en compte la totalité des centres de calcul ». Les datacenters sont « l'un des rares gros secteurs industriels où la consommation électrique augmente », a ajouté Pierre Delforge. « Cette augmentation de la consommation électrique des datacenters pousse la demande, laquelle se traduit par la création de nouvelles centrales électriques dans certaines régions », a-t-il ajouté.

La colocation pose problème 

Pour les entreprises qui choisissent la colocation, les centres de calcul multi-tenant ne sont pas forcément synonymes d'efficacité. Le système de tarification de ces services est basé sur l'occupation, le nombre de racks ou la superficie, plus une limite sur la quantité d'énergie au-delà de laquelle le client doit payer des frais supplémentaires. Ce modèle n'incite pas à utiliser l'équipement de manière aussi efficace que possible. Selon le rapport, l'an dernier, la totalité des datacenters installés sur le sol américain ont consommé 91 milliards de kilowatts-heures, « soit deux fois plus, et avec de la marge, que la quantité nécessaire à alimenter tous les habitants de New York en électricité ». Selon les estimations, en 2020, la consommation annuelle des datacenters devrait atteindre 140 milliards de kilowatts-heures.

« Si les entreprises adoptaient de meilleures pratiques énergétiques dans les datacenters, les avantages économiques seraient considérables », estime encore le rapport de la National Resources Defense Council. Une réduction de 40 % de la consommation d'énergie permettrait aux entreprises d'économiser 3,8 milliards de dollars. Et selon le rapport, une réduction de 80 % est techniquement possible. L'étude constate également que l'effort pour améliorer l'efficacité énergétique progresse peu. Mises à part certaines initiatives évidentes, comme l'isolement des allées chaudes et froides, les investissements supplémentaires pour améliorer l'efficacité énergétique sont plus difficiles à justifier, soit à cause du coût, soit parce que les gestionnaires IT craignent que certaines mesures ne contribuent à augmenter le risque. Les responsables informatiques sont « extrêmement prudents » et rechignent à mettre en oeuvre des programmes contraignants de gestion de l'énergie parce qu'ils redoutent un effet négatif sur la disponibilité », note le rapport.

L'Europe incite aussi à l'amélioration de ses datacenters 

Plusieurs indicateurs permettent de mesurer l'efficacité énergétique des datacenters, et le rapport recommande le développement d'outils pour surveiller l'usage du processeur, estimer l'usage moyen des serveurs et du datacenter. Selon la NDRC, « une généralisation de ces mesures simples permettrait d'avoir une meilleure visibilité sur l'efficacité énergétique, et inciterait davantage les opérateurs à optimiser l'usage de leurs ressources IT ». L'association n'est pas la première à se pencher sur la question. En 2007, l'Agence de protection de l'environnement américaine avait travaillé sur le sujet avec un grand nombre d'opérateurs de datacenters et de groupements industriels. Le rapport sur la consommation d'énergie des datacenters publié à l'époque avait établi qu'entre 2000 et 2006, la consommation d'électricité des serveurs et des centres de calculs avait plus que doublé et l'agence appelait déjà à l'amélioration de l'efficacité énergétique des centres de calcul.

L'arrivée prochaine d'une taxe carbone en Europe et la nécessité d'abaisser la consommation des datacenters qui se multiplient comme des petits pains ont amené le CRIP (Club des Responsables d'Infrastructure et de Production) et la CTO Alliance à travailler sur un indicateur du nom de DCEM (Data Centre Energy Management) capable de benchmarker les différents types de datacenters en Europe et d'enterrer par la même occasion le très décrié PUE, très utilisé par les anglo-saxons, puisqu'il permet d'afficher des notes flatteuses en simulant la pleine charge.

 

(...)

Les 10 documents suivants >


Publicité
Publicité
Publicité