Avec l'acquisition de Titan Aerospace, <a href=Google récupère un fabricant de drones solaires pour déployer son réseau." />

L'Image du jour

Avec l'acquisition de Titan Aerospace, Google récupère un fabricant de drones solaires pour déployer son réseau.

Big data : zoom sur les usages et les applications

Dernier Dossier

Big data : zoom sur les usages et les applications

2014 devrait être une année de transition pour le big data en France. En effet, les projets se multiplient et commencent timidement à se professionnal...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

PARTNER ZONE
Nous vous proposons des espaces d'information et de services dédiés à des acteurs du marché IT. Vous y trouverez de nombreux livres blancs, vidéos, articles...

Partner Desk

Nous vous proposons, dans ces espaces, les dernières nouveautés d'une marque IT.

Webcast

FERMER

OFFRE D'EMPLOI

Découvrez chaque jour des offres d'emploi 100% IT et profitez de toute la puissance de LMI pour promouvoir votre carrière.

Accéder au site 

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 
FERMER

Flux RSS

Datacenter

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS, Inscrivez-vous

2545 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(15/04/2014 17:23:59)

IBM France fête bientôt ses 100 ans

C'est le 15 juillet 1914 que s'implanta dans l'Hexagone la société ITR, International Time Recording, première émanation de ce qui devait devenir IBM France en octobre 1948. Et c'est le 16 avril 1955 que le mot « ordinateur » est créé pour la filiale française. En réponse à Christian de Waldner, qui était alors son PDG et demandait comment pourrait se traduire Electronic data processing machine en français, l'appellation « ordinateur » est proposée par le professeur Jacques Perret de la faculté des lettres de l'Université de Paris.

Il y a cent ans, quand la société ITR démarre son activité, elle commercialise alors des horloges, des appareils de contrôles de toutes sortes et des machines statistiques à cartes perforées. ITR constituait la filiale française d'une société qui s'était créée un peu moins de trois ans plus tôt aux Etats-Unis, Computing Tabulating Recording, le futur IBM qui ne prendra ce nom qu'en 1924 outre-Atlantique.

source www.cara-ibm.org
Camille Delcour, 1er dirigeant français d'ITR dans les années 20
(source : cara-ibm.org, Club des Anciens, Retraités et Actifs d'IBM)

L'année où ITR s'implante en France est aussi celle où Thomas J. Watson, considéré comme le père fondateur d'IBM, est nommé directeur général de CTR. C'est lui qui fait passer à la vitesse supérieure l'expansion internationale de la société. Son nom a, depuis lors, été donné à l'ordinateur cognitif Watson doté de capacités analytiques avancées et promu aujourd'hui par IBM pour un vaste champ d'applications.

Fin 1962, 35 agences commerciales sur le territoire

En France, dans les années 20, le précurseur d'IBM vend des machines statistiques à cartes perforées. Ce n'est qu'en octobre 1948 que la société prendra le nom d'IBM France. Quelques dates : le bureau de Lille est ouvert en 1923, suivi par les bureaux de Lyon (1924), Marseille (1928), Bordeaux (1932), Nantes (1935), Strasbourg (1938) et Grenoble (1954). IBM France s'installe ensuite à Alger et Casablanca en 1936, puis à Dakar en 1948.

En 1962, c'est le centre d'études et de recherches à La Gaude qui ouvre ses portes. A la fin de l'année, la filiale française de Big Blue possède au total 35 agences commerciales sur l'ensemble du territoire et 13 bureaux et ateliers Outre-mer.

En avril 1981, le premier système 3081 (annoncé en 1980) destiné à la France est livré au centre d'Inspection de l'Education nationale de Marne-la-Vallée pour une mise en service effective une semaine plus tard. Ce système, parmi les plus puissants d'IBM, est fabriqué à Montpellier pour les pays d'Europe, du Moyen-Orient et d'Afrique.

IBM France a déposé 70 brevets en 2013

Depuis janvier 2010, IBM France est présidé par Alain Benichou, qui a rejoint la société en 1984. La filiale est installée depuis novembre 2009 à Bois-Colombes. Depuis 21 ans, forts de ses 3 000 chercheurs, IBM est au premier rang des dépôts de brevets dans le monde. Parmi les innovations françaises a par exemple figuré le premier prototype d'autocommutateur qui sera homologué par les PTT. En 2013, IBM France a déposé 70 brevets. La filiale dispose avec IBM France Lab du 3ème laboratoire de recherche logiciel dans le monde en dehors d'IBM US.

La ville de Montpellier reste un site important d'innovation pour le groupe au même titre que celui de La Gaude (qu'il est prévu de déplacer à Nice). IBM souligne que c'est à Montpellier qu'a été ouvert en 2012 d'un premier centre de cloud public. Parmi les dernières ouvertures figure également celui du Services Center de Lille en juin 2013. Enfin, un centre cloud SoftLayer doit être inauguré au cours de ce deuxième trimestre en proche banlieue parisienne. 

(...)

(15/04/2014 13:42:40)

Avec Fluid Cache for SAN, Dell revoit à la hausse les performances applicatives

En direct de Francfort - Solutions de stockage, serveurs intégrés, gestion de flotte mobile, contrôleurs réseau physiques et virtuels... Dell a égrené les annonces à l'occasion de son événement Enterprise Forum à Francfort le 15 avril. Premier élément significatif, l'arrivée de Fluid Cache for SAN, une solution issue du rachat de RNA Networks en 2011. Une intégration très lente d'une technologie reposant sur des SSD NVME (trois maximum d'une capacité allant de 400 Go à 1,6 Go) connectés sur les ports PCI Express de serveurs PowerEdge 12G (R920 et 720) et l'espace de stockage réparti sur des baies Compellent pour réduire le temps de latence et accélérer la mise à disposition des données dans les applications (bases de données, VDI, ERP, CRM ou Exchange).

La solution Fluid Cache for SAN est essentiellement un accélérateur en lecture et en écriture assurant l'unification de la mémoire flash répartie sur un pool de serveurs. « Le logiciel d'abstraction va permettre aux baies de stockage d'accéder aux composants flash en lecture et en écriture », nous a expliqué Christophe Menard, directeur marketing stockage chez Dell France. Le cache partagé est en outre associé à une gestion RAID redondante sur les serveurs alors que les fonctions de snapshot sont assurées par les baies Compellent associées. Avec sa solution, Dell assure diviser la latence par 10. Des tests réalisés dans des environnements optimisés affichent des performances flatteuses : de 2220 à 12 000 clients en VDI et de 2800 à 14 000 utilisateurs simultanés avec une base de données. La couche logicielle réplique les données en mémoire cache, ce qui améliore le temps de réponse, sans compromettre les données. Pour les tarifs, Dell donne un prix pour une configuration type, à savoir 360 191 $ pour Fluid Cache avec 1 900 utilisateurs (12 000 $ de licence logiciel environ pour un cluster trois noeuds).

Compression tier 3 sur les baies Compellent

Autre annonce en stockage, l'arrivée de la version 6.5 de Storage Center qui permet à Dell de rattraper son retard sur certains points comme la compression des données en tier 3. On semble enfin assister à l'intégration de la technologie Ocarina, déjà réutilisée sur les appliances de sauvegarde PowerVault. Fluid Cache for SAN est bien sûr intégré à cette version de Storage Center ainsi que la réplication synchrone Live Volume pour basculer d'une baie primaire à une secondaire sans interruption de service.

Enfin, pour Equalogic, Dell annonce des packs d'intégration pour gérer les baies depuis les outils d'administration HIT (Host Intégration Tools) de VMware, Microsoft et Linux et faciliter par exemple le provisonning. Christophe Menard nous a ainsi expliqué que l'intégration de la fonction snapshot était plus cohérente sur la partie Microsoft tout comme le support de Powershell.

(...)

(15/04/2014 13:41:47)

Heartbleed : Les fabricants de serveurs livrent en urgence des correctifs

Afin de protéger les utilisateurs contre la faille de sécurité Heartbleed, les constructeurs de serveurs se précipitent pour livrer leurs correctifs. La faille, découverte dans certains serveurs et équipements réseau, peut permettre à un hacker de voler des données critiques, y compris des mots de passe et des clés de chiffrement, dans la mémoire des systèmes exposés. Hewlett-Packard, Dell et IBM ont répertorié les produits matériels et logiciels touchés par Heartbleed sur des pages web dédiées. La faille expose ces matériels à un défaut critique découvert dans certaines versions d'OpenSSL, une bibliothèque de données qui sert à sécuriser les communications sur Internet et sur les réseaux.

Une version d'OpenSSL a été publiée depuis l'identification de la faille, mais les vendeurs de hardware se dépêchent maintenant de livrer des correctifs pour des produits qui utilisent encore l'ancienne version de la bibliothèque. Des patches firmware et logiciels sont disponibles pour les BladeSystems de HP, les serveurs AIX d'IBM, les appliances et les équipements de réseaux de Dell. Les fabricants conseillent à leurs clients de passer au crible les hyperviseurs, les systèmes d'exploitation et le middleware pour rechercher d'éventuelles vulnérabilités. Certains serveurs HP utilisent OpenSSL pour le cryptage et les communications sécurisées, et l'entreprise procède à une « vérification très scrupuleuse et complète de tous les produits » susceptibles d'être concernés par la faille Heartbleed, indique une page du support technique de HP. « Les mises à jour de sécurité sont disponibles gratuitement pour tous les clients », a déclaré un porte-parole de HP par courriel hier.

HP recherche toujours la faille dans certains équipements

Dimanche, HP avait livré des correctifs pour certaines versions de ses outils de gestion de serveur BladeSystem c-Class Onboard Administrator, Smart Update Manager et System Management Homepage qui fait tourner OpenSSL sous Linux et Windows. La semaine dernière, HP avait déclaré qu'elle n'avait pas encore identifié les équipements réseau affectés par Heartbleed, mais qu'elle continuerait à examiner tous les produits. Les serveurs PowerEdge de Dell et les produits de gestion système OpenManage ne sont pas susceptibles d'être affectés par Heartbleed. Mais dans un communiqué général sur la faille de sécurité, Dell a déclaré que la gestion du système, les appliances de sécurité et les équipements réseau étaient affectés par le bogue.

Dell finalise des correctifs pour l'appliance de gestion des appareils mobiles Kace K3000, certaines appliances réseau Foglight et un équipement réseau tournant sous le système d'exploitation réseau Networking Operating System (FTOS) de Dell. Le vendeur a déjà livré des patches pour le firmware des appliances de sécurité SonicWALL. Dell indique qu'elle tiendra à jour sa page web au fur et à mesure de la disponibilité des correctifs pour les différents produits affectés.

Un patch IBM pour AIX 6.1

IBM a identifié la faille de sécurité Heartbleed dans les serveurs AIX, qui s'appuient sur OpenSSL pour la communication entre les clusters via le protocole TLS (Transport Security Layer). Le SSL (Secure Sockets Layer) qui sert à sécuriser les communications sur Internet repose aussi sur OpenSSL. IBM a livré un correctif OpenSSL pour les serveurs tournant avec l'OS AIX 6.1 et le protocole TL9, et ceux tournant avec l'OS AIX 7.1 et le protocole TL3. IBM recommande également d'utiliser la nouvelle version d'OpenSSL sur les versions 3.4 et 3.5 du GPFS (General Parallel File System) pour AIX et Linux sur les serveurs Power et x86. Certains logiciels comme WebSphere MQ, la version 9 HF1 de Sametime Community Server et Cloudant sont affectés par la faille Heartbleed.

Enfin, dans un note, IBM suggère également aux clients exploitant des System z de s'abonner au portail de sécurité System z pour recevoir les derniers correctifs et mises à jour logicielles.

 

(...)

(09/04/2014 14:15:45)

Intel et SGI testent l'immersion liquide pour refroidir les serveurs

Pour réduire les factures liées au refroidissement des supercalculateurs, Intel et SGI ont testé une solution submergeant complètement les circuits électroniques des serveurs x86 dans un liquide spécial. Pour éprouver ce concept, les deux entreprises ont construit un supercalculateur qui est donc conservé au frais en utilisant un fluide développé par 3M et appelé Novec. C'est un liquide diélectrique, ce qui signifie que les circuits électroniques peuvent être immergés dans ce fluide et continuer à fonctionner normalement.

Si le fluide Novec est déjà utilisé dans les systèmes d'extinction des incendies, Intel et SGI vont de l'avant en testant sa viabilité en tant que système de refroidissement plus efficace pour les ordinateurs. Ils espèrent ainsi supprimer les ventilateurs et éliminer la nécessité d'utiliser des tonnes d'eau pour refroidir les centres de calcul. Cette technologie a le potentiel de réduire de plus de 90% les factures d'énergie des datacenters, a déclaré Michael Patterson, ingénieur thermique chez Intel. Mais il va falloir relever plusieurs défis avant d'envisager une mise en production, et notamment la nécessité de concevoir de nouveaux serveurs et cartes mères. Le fluide Novec entoure le matériel et absorbe de la chaleur, en gardant les processeurs et les autres composants à une température constante.

Remplacer les flux d'air par un fluide diélectrique

Mais comme aujourd'hui les datacenters font face à un vrai défi avec le manque d'espace et la difficulté à générer suffisamment de flux d'air pour refroidir des serveurs de plus en plus puissants, la piste Novec pourrait s'avérer judicieuse. « Je peux voir quelque chose comme ça - après que le concept ait été raffiné et automatisé - pour concevoir des centres de calcul avec des capacités plus élevées et une empreinte énergétique plus faible », a déclaré M. Patterson. Intel et SGI ont déjà construit un supercalculateur équipé de puces Xeon directement immergées dans le fluide Novec, dans les locaux de 3M à St. Paul. D'autres expérimentations de ce type sont également testées. Intel travaille par exemple avec Iceotope sur une conception en pleine immersion un peu différente.


Le serveur SGI sur base Intel refroidi grâce à la solution d'immersion liquide Novec de 3M.

Cette architecture pourrait résoudre un gros problème - celui des entreprises qui ont besoin de réduire leurs factures d'énergie alors même qu'elles achètent des ordinateurs plus puissants - mais elle pourrait aussi exiger de revoir le duo traditionnel serveur/carte mère. « C'est à la fois une chance et un problème », a déclaré M. Patterson. Les serveurs ont toujours été conçus pour maximiser les flux d'air sur les composants, et le refroidissement par immersion est un concept très différent. Sur les cartes mères actuelles, les circuits sont disposés juste à bonne distance afin de maximiser la dissipation thermique. Avec la solution Novec, les circuits peuvent être intégrés beaucoup plus étroitement, ce qui entraine une modification profonde des serveurs pour datacenters. Les entreprises devront également repenser les interconnexions au niveau du rack, puisque les câbles optiques pourraient ne plus fonctionner une fois plongés dans le fluide Novec, selon le responsable technique d'Intel.

Des clients déjà prêts à essayer la solution

SGI a des clients prêts à essayer cette technologie, et sur la base de leurs commentaires, la firme va expérimenter de nouveaux designs de serveurs, a indiqué Bill Mannel, directeur de l'activité serveurs chez le constructeur américain. Si Intel n'a pas encore prévu de modifier sa feuille de route processeurs, la firme de Santa Clara pourrait concevoir dans un proche avenir les circuits nécessaires à cette plate-forme de refroidissement par immersion. « Je ne prévois pas une réduction de la taille des circuits, mais il y aura des changements quant à la puissance de la plate-forme et aux modules de gestion thermique », a déclaré Patterson.


Les cartes mères du serveur de SGI sont immergées dans le bain liquide Novec.

Joe Koch, directeur commercial chez 3M, a comparé Novec à un grand dissipateur de chaleur liquide. Quand les composants du serveur chauffent, les propriétés du liquide permettent d'absorber cette chaleur sans entrainer de surchauffe. Le fluide Novec peut aider les processeurs à fonctionner à une température constante, ce qui peut contribuer à réduire la déperdition électrique sur les puces. Un refroidissement par contact direct peut également permettre à Intel de concevoir des systèmes beaucoup plus dense, a-t-il dit.

Pour tester Novec, les deux entreprises travaillent également avec le Naval Research Laboratory de la marine américaine, le Lawrence Berkeley National Laboratory et le fabricant d'équipements Schneider Electric. Il pourrait toutefois se passer un certain temps avant que les entreprises achètent des serveurs refroidis par immersion, mais Intel pense cette technologie a de l'avenir. « Nous n'aurions pas avancé sur le sujet si nous ne croyions pas qu'il avait un potentiel », a déclaré M. Patterson. « C'est pourquoi nous pensons déjà à l'étape suivante et continuons à en apprendre davantage sur Novec ».

(...)

(09/04/2014 09:20:23)

Déjà 100 PoC Moonshot dans le centre HP à Grenoble

Sur son site grenoblois, planté entre les massifs montagneux du Vercors, de la Chartreuse et de Belledonne, HP a développé un centre de compétences réunissant une cinquantaine d'experts autour de ses serveurs haute densité et basse consommation Moonshot et de ses technologies HPC (High performance computing). Ce Discovery Lab accueille les clients européens du constructeur (et plus largement ceux de la région EMEA) pour l'élaboration de "proofs of concept" sur des projets complexes et pour du benchmarking d'applications. C'est également à Grenoble que se trouve le centre mondial de solutions HP/Intel et l'un des trois datacenters haute disponibilité du groupe pour l'Europe.

Lancée il y a un an, l'offre de serveurs hyperscale de HP a été conçue pour supporter la montée en puissance des charges de travail dans les datacenters : augmentation du trafic web, des applications cloud, du streaming vidéo, etc. Elle permet de multiplier le nombre de serveurs tout en réduisant d'environ 80% l'encombrement, la consommation électrique et le coût par rapport aux serveurs traditionnels. C'est pour cette technologie économe en énergie que Susan Blocher, vice présidente responsable marketing de l'offre Moonshot, a rejoint HP en février dernier après avoir passé 20 ans chez IBM. « Nous configurons ces serveurs pour des charges de travail spécifiques », en prenant en compte les performances de traitement exigées par la charge applicative, le stockage SSD, le logiciel requis, etc. En tout plus d'une centaine de caractéristiques, le tout « littéralement construit dans la cartouche », a-t-elle rappelé lors d'une visite organisée au centre de compétences isérois. « C'est moins coûteux pour nos clients et ils peuvent acheter l'exacte puissance de compute dont ils ont besoin ».

Converged Systems 100 pour les déploiements HDI

Les serveurs sont fournis sous forme de cartouches enfichables dans un châssis 4.3U où ils partagent alimentation, ventilation, connectique et deux commutateurs réseau. Chaque châssis Moonshot reçoit 45 cartouches. Les premières cartouches disponibles ont été les Moonshot ProLiant Server (pour le trafic web statique, livrées avec Nginx ou Ubuntu), HP annonçant ensuite les ProLiant m300, pour le web serving dynamique (avec Nginx et Windows IIS, ou Ubuntu, Rhel et SLES) ou l'hébergement web (avec Parallels/HP Cloud OS ou CentOS/Ubuntu). Enfin, pour ses Converged Systems 100 annoncés en décembre, HP a présenté ses cartouches serveurs ProLiant m700 (4 APU AMD Opteron X2150 par cartouche, soit jusqu'à 1 800 serveurs par rack) pour assurer l'hébergement de postes de travail sous Windows 7, avec la technologie Citrix.

HP Moonshot
Le châssis Moonshot flanqué à gauche de quatre cartouches serveurs, de haut en bas, la m800 (quatre serveurs à base de puces Cortex A15 d'ARM de 4 coeurs chacun et huit processeurs de traitement du signal), la m700, la m300 et la ProLiant Borman.

Jusqu'à présent, le Discovery Lab a donné à une centaine de clients l'opportunité de tester leurs propres applications sur l'ensemble ces infrastructures, les fonctionnalités HDI (hosted desktop infrastructure) des m700 ayant notamment été mises à l'épreuve par des clients français (avec une infrastructure personnalisée), danois, allemand ou néerlandais (ici avec Windows 8). Susan Blocher mentionne aussi des tests HPC mis en oeuvre par un client italien sur les m300 avec Scientific Linux 6.2. Parmi les applications en production des nouveaux m300, outre le serving web, HP cite une application d'analyse des risques chez un fournisseur de service spécialisé et un projet big data chez un fournisseur d'énergie. Autres exemples cités, les m700 exploitées pour la consolidation du datacenter d'un grand client dans le retail et les capacités HDI des CS100, déployées par un grand opérateur télécoms. A Grenoble, l'hébergeur allemand myLoc, qui a installé des cartouches Borman (à puces Intel Atom S2100), m300 (Intel Avoton C2750) et m700 est venu témoigner des gains obtenus sur l'encombrement (3,5 m2 pour 675 serveurs, soit 0,0052 m2 par serveur) et la consommation électrique : jusqu'à 180 serveurs partagent 3 alimentations de 1 500 Watts. Nous reviendrons sur le sujet et sur la visite du centre de compétences, ainsi que sur le témoigne d'Airbus, cette fois sur l'utilisation de l'architecture HPC.

Au niveau mondial, HP a significativement investi dans son activité serveur Moonshot et constitué une business unit dédiée, chapeautée par Paul Santeler, a par ailleurs rappelé la VP marketing en soulignant que le Moonshot Discovery Lab avait représenté l'un des premiers investissements et que 72 partenaires avaient rallié la technologie. Le centre de compétences de Grenoble est dirigé par Jean-Jacques Braun et l'équipe commerciale EMEA pilotée par Olivier Frank. (...)

(08/04/2014 18:16:08)

Les 5 ans des UCS actent le succès de Cisco dans les serveurs

« Cela fait un acteur de plus alors qu'il y a déjà du monde sur ce marché. Quelle sera la valeur ajoutée apportée par Cisco ? », avait questionné ironiquement le directeur de la division serveur de HP en mars 2009 suite au lancement des UCS (Unified Computing Systems). En misant sur des solutions de serveurs convergées (réseaux et compute) la firme de San José n'avait pas fait l'unanimité tant auprès de ses clients que de ses concurrents. Cinq ans plus tard, elle semble pourtant avoir convaincu les premiers et prouvé aux seconds qu'ils s'étaient trompés. Aujourd'hui, les serveurs UCS permettent à Cisco de pointer à la deuxième place des constructeurs de serveurs x86 derrière HP et devant IBM avec 22,6% des parts du marché mondial au quatrième trimestre 2013 (chiffres IDC). En France, le constructeur a représenté sur la même période 11,2% des expéditions et siège à la troisième place avec plus de 400 clients pour ses UCS.

« Nous n'avons pas fait de simples serveurs », déclare Eric Greffier, directeur Business Solutions & Expertise de Cisco France, pour expliquer ce succès. Selon lui, c'est l'accent mis sur l'innovation qui a permis aux UCS de conquérir des parts de marché. Il ajoute : « l'approche convergée était gagnante ». En outre, leur consommation moindre, la diminution drastique du câblage et leur rapidité de mise en production ont largement joué en la faveur des UCS. « Les systèmes convergés ont permis de répondre à des problématiques plus globales, qui sortaient du simple cadre du hardware », déclare Christophe Labro, directeur cloud services de Cisco en France.

Cisco prépare l'avenir avec Inter Cloud


Pour l'avenir, Cisco a décidé de miser sur le cloud hybride. Lors de sa conférence partenaires tenue à Las Vegas en mars dernier, le constructeur a annoncé un investissement de 1 Md$ pour élaborer une telle offre. Conçu en partenariat avec ses multiples partenaires fournisseurs, InterCloud doit faciliter la navigation entre les différents cloud publics et privés.

Dans cette optique, des services à forte valeur ajoutés devraient voir le jour. En outre, cette offre s'accompagnera pour les partenaires revendeurs d'une certification supplémentaire. Elle leur permettra d'être retenue auprès des fournisseurs partenaires de l'initiative InterCloud. « Nous allons construire le plus grand cloud au monde », conclut Christophe Labro.

(...)

(08/04/2014 15:54:34)

Les datacenters d'Apple, Google et Facebook éco-responsables selon Greenpeace

Dans son rapport nommé Clicking Clean, Greenpeace recense les bons et les mauvais élèves en matière de politique environnementale liée à leurs datacenters pour développer les services clouds. L'édition d'avril 2014 a attribué des notes selon certains critères aux différents acteurs de l'IT. Ainsi, Google a obtenu la note B pour la transparence énergétique, pour la politique environnementale et pour son efficacité et la note A pour son soutien au développement d'énergies renouvelables. Facebook a, pour chacun de ces critères, obtenu respectivement A,A, A et B. Apple a été placé à la première place de ce classement en obtenant A, A, B, A. Juste derrière ce trio, on retrouve Box, Rackspace et Salesforce.com qui se sont engagés à alimenter à 100% leur datacenter avec des énergies renouvelables.

Le tableau de bord de Greenpeace montre qu'Apple a déjà atteint 100% sur l'index « Energie Propre », notamment avec la mise en place d'une ferme de panneaux solaires en Caroline du Nord et l'arrivée d'une éolienne et de la géothermie dans l'Oregon. Google n'affiche que 48% d'énergie propre dans ses datacenters, 13% de gaz naturel, 22% du charbon et 15% du nucléaire. Pour Facebook, les chiffres sont de 49% pour les énergies renouvelables, 7% de gaz naturel, 25% de charbon et 16% de nucléaire.

Mauvais élèves : AWS et Twitter

Après les bons élèves, Greenpeace donne des cartons rouges à deux grands acteurs, Amazon Web Services et Twitter. Ils sont considérés par l'association comme « les sociétés les plus polluantes et les moins transparentes du secteur ». Les reproches sur AWS portent sur sa croissance effrénée pour être le support de multiples marques connues, Netflix, Pinterest, Spotify ou Vine, sans penser à développer les énergies renouvelables (à peine 15%) au sein de ses datacenters.

Avec ce classement, Greenpeace veut sensibiliser les acteurs à l'utilisation d'énergie propre dans les centres de calcul. Une sensibilisation rendue d'autant plus nécessaire que les services clouds sont très énergivores. Greenpeace a comparé les consommations électriques des différents pays par rapport au cloud en général. Ce dernier arriverait en 6ème position.

(...)

(08/04/2014 09:31:21)

La virtualisation des serveurs progresse en Europe en 2013

La virtualisation progresse lentement mais sûrement dans la zone EMEA, selon IDC. Au quatrième trimestre, 33% des serveurs vendus dans cette région étaient virtualisés contre 30% un an plus tôt. Dans le même temps, 282 300 licences de logiciels de virtualisation ont été activées, soit 12% de mieux qu'à période comparée de 2012. On peut légitimement penser que ces deux phénomènes contribuent à bloquer la croissance du marché des serveurs physiques resté stable (-0,3%) à 604 400 unités entre octobre et décembre derniers.

Durant l'ensemble de l'année 2013, ce sont 717 000 serveurs virtualisés (+9,6% par rapport à 2012) qui ont été vendus en EMEA, contre 2,2 millions de serveurs physiques (-2,2%). Quant aux logiciels de virtualisation, 1 million de licences ont été activées (+ 13,5% sur un an) pour un chiffre d'affaires de 1,6 Md$ en hausse de 14,6%.

L'Europe de l'Ouest reste la championne de la virtualisation en EMEA avec un nombre de serveurs virtualisés qui a représenté 33,8% des ventes totales de serveurs au quatrième trimestre 2013. Mais les pays émergents commencent à adopter sérieusement cette technologie. Lors du quatrième trimestre, les ventes cumulées de serveurs virtuels en Europe centrale et orientale, en Afrique ainsi qu'au Moyen-Orient ont ainsi progressé de 10,6%.

VMware, Microsoft et les autres

A eux deux, VMware et Microsoft s'accaparent une part écrasante du marché de la virtualisation. L'an dernier 85% des serveurs virtualisés activés utilisaient la technologie de l'un ou de l'autre. Avec 33% de parts de marché, la firme de Redmond fait toutefois encore pâle figure face à VMware qui s'adjuge donc 52% du marché. Citrix en capte à peine 5% et monte ainsi sur la troisième place du podium. Parallels arrive en quatrième position avec 10% de parts de marché en EMEA.

(...)

(07/04/2014 17:02:55)

Seagate livre un disque dur entreprise de 6 To

La gamme de disque dur pour entreprise s'étoffe chez Seagate. En effet, le constructeur vient d'officialiser l'arrivée d'un disque 3,5 pouces d'une capacité de 6 To. Il comprend 6 plateaux de 1 To avec une vitesse de rotation de 7200 tours par minute et 128 Mo de cache. Seagate annonce une amélioration des performances de 28% par rapport au disque de 5 To. Il se décline en plusieurs capacités, 2, 4 et 5 To avec une connectivité SAS 12 Gbt/s ou SATA 6 Gbt/s.

Comme les  produits précédents, l'Enterprise Capacity 3.5 HDD v4 comprend une solution d'auto-chiffrement, Instant Secure Erase. Il intègre aussi un système de correction d'erreurs baptisé « Super Parity » avec une fonctionnalité de reconstruction RAID basée sur le contrôleur SAS. Enfin, le constructeur est resté évasif sur le tarif en indiquant seulement que le prix du Go serait le même que pour le disque de 5 To.

Pas d'usage de l'hélium

Par contre, le constructeur n'utilise pas la technologie à l'hélium comme son concurrent HGST. Ce dernier a été le premier à lancer un disque de 6 To en intégrant ce gaz pour limiter les frottements et diminuer la consommation électrique. L'Ultrastar He6 annoncé en novembre dernier prévoyait des gains d'énergie et une meilleure fiabilité.  « Nous n'avons pas eu à utiliser de l'hélium pour obtenir cette capacité. Notre disque est 25% plus rapide que celui de notre concurrent », explique Barbara Craig, directrice du marketing de Seagate. Elle n'exclut néanmoins pas l'usage de l'hélium « quand nous en aurons besoin ».

Le disque de la gamme Entreprise de Seagate est équipé d'un « capteur d'humidité » qui lui permettra de fonctionner dans des environnements humides. Ce disque s'adresse principalement aux datacenters et notamment ceux qui proposent du stockage en mode cloud.



(...)

(07/04/2014 12:25:32)

Le mainframe d'IBM fête ses 50 ans

A bien des égards, l'informatique moderne a débuté au New Englander Motor Hotel à Greenwich dans le Connecticut. C'est là qu'en 1961 un groupe d'ingénieurs d'IBM s'est réuni en secret pour travailler sur un ordinateur de nouvelle génération. Le constructeur disposait à l'époque de plusieurs lignes de produits et avait du mal à garantir la maintenance et les mises à jour.

Le fruit des efforts de ce groupe de travail a été dévoilé le 7 avril 1964 sous l'appellation System/360. Ce dernier a inauguré une autre façon de penser la conception et la construction des systèmes informatiques. Avant les ordinateurs étaient élaborés quasiment sur mesure y compris l'OS. IBM a donc eu l'idée de créer une famille unifiée d'ordinateurs avec une architecture unique. Cette idée a été poussée par Gene Amdahl, architecte en chef, et Fred Brooks, chef de projet. Avant 1960, l'idée même du mot « architecture » en informatique était inconnue. Ce concept a ouvert la voie à la compatibilité entre les différents modèles d'ordinateurs. Le nom « 360 » répondait à cette volonté que le système puisse servir tous les types de clients, grands comptes, PME/ PMI, industriels ou scientifiques.

Parmi les avancées de l'époque, IBM a été en mesure d'utiliser un système d'exploitation pour ses systèmes (même si des variantes ont été élaborées depuis). Beaucoup d'écritures de code spécifiques ont été supprimées pour que les ingénieurs puissent se concentrer sur la création d'applications. Des efforts ont été menés sur les composants comme les processeurs et les mémoires pour que les ordinateurs puissent partager ces ressources.

Compatibilité des programmes et fédération autour du Cobol

Les clients bénéficient également d'une compatibilité du code d'une machine à une autre. IBM a toujours soutenu cette compatibilité sur les différentes évolutions de ses mainframes. Les programmes pour les premiers System/360 peuvent toujours fonctionner avec quelques légères modifications sur les systèmes actuels. Au centre du code, le langage Cobol, né en 1959, a fédéré les spécialistes du mainframe. Beaucoup d'entreprises, notamment dans le domaine bancaire, ont élaboré leur propre logiciel en Cobol sur des systèmes IBM.

Le mainframe a connu plusieurs évolutions eu fil du temps et fait le succès d'IBM. En 1971, le chiffre d'affaires de Big Blue est passé à 8,3 milliards de dollars contre 3,6 milliards en 1965. Dans les années 70, 70% des grands systèmes vendus étaient des IBM. En 1982, plus de la moitié du chiffre d'affaires de la société était issu des descendants du System/360. Aujourd'hui, il reste encore une activité importante de la société, malgré un mouvement de déconsolidation des entreprises pour aller vers des architectures x86.

(...)

Les 10 documents suivants >


Publicité
Publicité
Publicité