Flux RSS

HPC

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

138 documents trouvés, affichage des résultats 91 à 100.

< Les 10 documents précédentsLes 10 documents suivants >


(08/07/2010 15:00:29)

HP, 1er contributeur aux tests TPC-Energy

Premier constructeur à utiliser la spécification TCP-Energy, Hewlett-Packard a présenté les résultats des tests de performance pour quatre de ses serveurs. « L'énergie est devenue un enjeu croissant dans le coût global » pour de nombreuses entreprises, a déclaré Karl Huppler, président du TPC. « Le nouveau test de référence qui estime le rendement en watts dépensés leur permettra de juger de l'efficacité de leurs systèmes énergétiques, » a-t-il ajouté. « Combiné à d'autres tests mis au point par le TPC, le TPC-Energy peut aider les clients à estimer le prix, la performance et la consommation d'énergie de tout système transactionnel donné, » indique l'association qui regroupe des éditeurs de logiciels, des fabricants de matériel, mais aussi des organismes de recherche et des organisations d'utilisateurs. « Un système peut fournir un niveau supérieur de performance, mais peut ne pas être aussi efficace en terme de watts par transaction,» a déclaré Mike Nikolaiev, président du comité de TPC-Energy, par ailleurs en charge de l'optimisation de la performance chez HP.

Une série de benchs pour mesurer les performances

Introduit en décembre, le TPC-Energy mesure le nombre de transactions qu'un serveur peut effectuer par watt. Les transactions sont évaluées à l'aide de l'un des trois autres tests TPC - TPC-E, TPC-C et TPC-H utilisés pour noter les performances du serveur. Le banc test TPC-E simule le profil de charge des systèmes de transaction en temps réel (OLTP - On Line Transaction Processing), typiquement le mode de fonctionnement d'une entreprise de courtage. Un test plus ancien, le TPC-C, permet également de simuler un environnement OLTP, et mesure les performances de machines en environnement serveur. Le troisième, TPC-H, simule la requête ad hoc, l'aide à la décision et la répartition de la charge de travail.

Quatre serveurs HP sur le grill

HP a fait passer les quatre tests à ses nouveaux serveurs ProLiant. En TPC-E par exemple, le système HP ProLiant DL585 G7 a exécuté 1.400 transactions par seconde (TPS) en utilisant 6,72 watts. En revanche, l'autre système ProLiant DL580 G7 a consommé 5,84 watts pour exécuter 2001 TPS. En comparant la performance du DL585 et du DL580 établie par les tests TPC-E avec le test TPC-Energy, on pourrait conclure que le DL580 est le meilleur choix, tant pour le débit TPS que pour la consommation d'énergie. Mais le programme encourage à prendre en compte les prix du système. Dans ce cas, le DL580 est plus cher que le DL585 quand on considère la côte dollars-par-TPS (347 contre 330 dollars US). Le système basé sur le DL580 « obtient le meilleur rendement, mais coûte un peu plus cher,» a déclaré Mike Nikolaiev.

Illustration : serveur Proliant GL585 G7, crédit HP

[[page]]

Pour mesurer la consommation globale d'énergie du système, on teste chaque sous-système avec un certain nombre d'analyseurs de puissance, lesquels envoient un flux de données au logiciel Energy Measuring System fourni par TPC qui se charge de rassembler les résultats. Le logiciel est aussi capable de décomposer les besoins énergétiques par sous-système, pour montrer par exemple ce que consomment respectivement un serveur d'application, un serveur de base de données, des unités de stockage et autres sous-systèmes. « Les tests pour mesurer la performance par sous-système sont optionnels, » a indiqué Mike Nikolaiev. Dans tous les cas, comme pour les autres benchmarks TPC, il revient aux vendeurs d'effectuer eux-mêmes les tests, de trouver laquelle de leur configuration est optimale et de soumettre leurs résultats à l'examen de l'association TPC pour figurer éventuellement dans la liste des meilleurs participants. Une obligation cependant : chaque type de résultats doit être vérifié par une tierce partie.

D'autres résultats attendus

Avec HP comme premier contributeur, TPC espère motiver les autres membres à présenter les résultats de  tests TPC-Energy effectués sur leurs propres systèmes. L'organisation à but non lucratif consacrée au développement d'outils d'évaluation des performances des systèmes de traitement transactionnels et de base de données est financée par des entreprises informatiques comme AMD, Cisco, Dell, HP, IBM, Intel, Microsoft, Oracle, Unisys et d'autres.

Les datacenters principaux concernés

Le travail sur le TPC-Energy réalisé par l'association arrive à un moment où l'Agence pour la protection de l'environnement américaine intensifie ses propres actions pour améliorer l'efficacité énergétique des centres de données. En dehors du test TPC-Energy, l'association travaille à mettre au point un nouveau test de référence pour mesurer la charge de travail des data warehouse, appelé le TPC-ETL, et un autre pour mesurer la charge de travail des systèmes de virtualisation, le TPC-Virtualization. Elle planche également à une mise à jour du TPC-H.

(...)

(30/06/2010 21:40:57)

Silicon Valley 2010 : Réseaux pour datacenter et base de données en cluster (4e partie)

Présidée depuis octobre 2008 par Jayshree Ullal, ex-VP de Cisco en charge du pôle datacenter, Arista nous a reçu dans un élégant immeuble de Menlo Park. La start-up qui compte parmi ses actionnaires Andy Bechtolsheim, le cofondateur de Sun, s'est spécialisé dans les switchs 10 Gbit Ethernet haut de gamme (24 et 48 ports) pour les datacenters, les infrastructures HPC et bien sûr le cloud computing.

Principales caractéristiques techniques des solutions proposées par Arista : un système d'exploitation reposant sur un noyau Linux nommé Extensive OS (EOS) et une architecture structuré autour d'une base de données intégrée (SySDB). Doté d'un système de répartition de charge et d'une capacité de buffering pour réduire la congestion, EOS ambitionne de réduire la latence des commutateurs. De son coté, SySDB concentre toutes les informations nécessaires au bon fonctionnement des switchs. Complétée par des outils de supervisons pour réduire les erreurs humaines, cette base conserve les données concernant les commandes CLI et les protocoles réseau. Vice-président en charge de la technologie, Anshul Sadana explique qu'EOS était plus robuste que l'IOS de Cisco et que leur noyau était particulièrement protégé.  Sur un marché du switch 10 Gbit évalué à 9 milliards de dollars en 2014, selon Jayshree Ullal, Arista pense avoir une carte à jouer. « Nous pouvons être une alternative dans les datacenters. Les grandes entreprises sont aujourd'hui obligées de prendre en compte les start-ups si elles veulent profiter de leurs capacités d'innovation » ajoute-t-elle. Aujourd'hui, Arista emploie une centaine de personnes, et revendique 340 clients dans le monde. Principalement des centres de recherche, des universités ou d'autres start-ups.

[[page]]

Switch haute densité

Poursuivons nos rencontres dans le monde du réseau avec Blade Networks Technology (BNT) à Santa Clara dans un immeuble qui domine la fab d'Intel . Pas vraiment une start-up, l'équipementier a été crée en 2006 suite à une spin off de l'activité commutateurs du Canadien Nortel. Financé  par le fond d'investissement Garnett & Helfrich, BNT compte à ce jour 170 personnes.  Si le produit phare de la marque reste le switch Ethernet mini-rack fourni en OEM à HP, IBM ou NEC, BNT  commercialise  depuis trois ans des systèmes top of the rack qui autorise la connexion maximale de 40 serveurs dans un module vertical en haut des armoires. Le best-seller de la marque, le RackSwitch G8124, est le premier modèle a être descendu sous la barre des 500 dollars par port 10 GigaEthernet, nous explique Vikram Mehta, le dynamique CEO de Blade Networks (voir photo ci-dessous). « Et en 2009, 500 000 serveurs ont été déployés dans le monde avec des équipements BNT, principalement dans des centres de calculs. Connecter un datacenter est une chose très différente de la connexion d'un PC portable. Il faut assurer la convergence entre des milliers de ports et des centaines de machines virtuelles. »

Avec ses 1000 ports switch virtuels, VMready de BNT permet d'adapter le réseau à la virtualisation. Cette solution s'interface avec les principaux éditeurs d'hyperviseur pour associer un virtual port à une VM. Aujourd'hui, l'intégration la plus avancée a été réalisée avec VMware. « Quand on fait une VMotion (déplacer une VM dans VCenter de VMware), le profil associé suit et reconfigure automatiquement le port », souligne Atul tambe, VP ingénierie matériel chez BNT. Et via les API, VMReady 2 va être capable de s'interfacer et de donner des ordres aux switchs. « Nous vivons aujourd'hui le même phénomène que le passage du mainframe au cluster Linux avec le développement du switch distribué en lieu et place du switch classique », ajoute Vikram Mehta.

 

[[page]]

Base de données MySQL en cluster

 

 

Pour notre dernier déplacement, nous quittons la Silicon Valley pour nous rendre dans le quartier d'affaires de San Francisco à la rencontre de Clustrix. Fondée en 2008 par des anciens d'Isilon Systems, Paul Mikesel et Aaron Passey, cette start-up est soutenue par les fonds d'investissement Sequoia - qui a encore des intérêts dans Isilon - VSVP et ATA Ventures. Basée sur une technologie très proche des baies de stockage distribuée d'Isilon Systems, cette start-up propose une solution pour répartir sans partitionnement une base de données de type MySQL sur plusieurs serveurs. Il s'agit de la technologie Isilon adaptée aux bases de données, ici baptisée Clustered Database Systems (CDS).




Découpée en tranches, la base de données est répartie sur tous les serveurs CLX 4100 en cluster. Ici aussi, le système est une solution complète comprenant logiciel et matériel. Si la configuration de base démarre à 80 000 dollars avec 3 appliances CLX 4100 en mode cluster - équipé de 32 Go de mémoire vive, de 2 x 4 coeurs Intel , de 7 x 160 Go SSD et de2 x 320 Go DD - , il suffit d'installer de nouvelles machines pour accroitre la capacité de traitement et l'espace de stockage. La compagnie n'a pas encore installé plus de vingt noeuds, mais rien n'empêcherait d'aller jusqu'à une centaine de serveurs. « Chaque noeud parle à l'autre en fois connecté en IP pour échanger des informations » explique Paul Mikesel, PDG et en charge de l'ingénierie chez Clustrix .  Avec son système, la start-up réussit à combiner les fonctionnalités MySQL avec l'extensibilité et les performances des bases de données non-SQL.

Nous terminons ici notre tournée des start-ups, mais nous vous donnons rendez-vous pour une deuxième session en novembre prochain.

(...)

(25/06/2010 15:12:16)

Geforce 280 contre Core i7, une étude Intel confirme la supériorité de Nvidia

En moyenne, la Nvidia GeForce GTX 280 - commercialisée en juin 2008 - était 2,5 fois plus rapide que l'Intel Core i7 960 cadencé à 3,2 GHz processeur, et dans certaines circonstances jusqu'à plus de 14 fois plus véloces selon 12 chercheurs d'Intel. Ces derniers ont publié leurs observations dans un document baptisé Debunking the 100x GPU vs. CPU myth: An evaluation of throughput computing on CPU and GPU. À l'origine, cette étude devait définitivement discréditer les prétentions des puces 3D sur les processeurs Intel en comparant les performances d'un Core i7  et  d'une carte exécutant une série de tests conçue pour exploiter les capacités de traitement en parallèle de ces circuits. Comme son nom l'indique, le traitement en parallèle consiste à effectuer de multiples calculs en simultané par opposition un travail en série qui réalise les tâches dans un ordre séquentiel. 

Les puces graphiques intègrent aujourd'hui des centaines de noyaux (ou shader) qui sont utilisés pour calculer des polygones et plaquer des textures pour créer des images de plus en plus réalistes. La carte GTX280 de Nvidia intègre l'équivalent de 264 coeurs par socket, tandis que la société a récemment annoncé son GPU Tesla M20 avec 448 noyaux. Ces circuits sont donc bien adaptés au traitement en parallèle alors que les CPU du type Core i7 sont mieux adaptés au travail en série. Cela ne veut pas dire que les puces quatre coeurs d'Intel ne peuvent pas effectuer de calcul en parallèle, mais elles le font beaucoup moins bien que les GPU comme le GTX280. C'est en tout cas ce que confirme l'étude d'Intel.

« C'est un moment rare dans l'univers de la technologie quand une entreprise avec laquelle vous êtes en concurrence affirme à l'occasion d'une importante conférence que votre technologie est jusqu'à 14 fois plus rapide que la sienne » écrit sur son blog Andy Keane, responsable de l'activité calcul GPU chez Nvidia, qui a fourni un lien vers le document du fondeur de Santa Clara

[[page]]

Andy Keane n'a pas été impressionné par le rendement communiqué par Intel, il affirme que 10 clients de Nvidia clients ont amélioré d'un facteur 100 les performances de leurs applications optimisées pour fonctionner sur des GPU. La comparaison de performances réalisée par la firme n'a probablement pas 
utilisé les logiciels les plus optimisés qui auraient permis de meilleurs résultats souligne-t-il. Il note également qu'Intel n'a pas fourni de détails sur le code logiciel utilisé pour ces tests.

 « Ce ne serait pas la première fois dans l'histoire de l'industrie qu'Intel se voit reprocher ce type de pratique lors de benchmarks », écrit-il, en fournissant un lien vers la Federal Trade Commission américaine (en charge du contrôle des pratiques commerciales anticoncurrentielles) lors d'une procédure antitrust entamée contre Intel en 2009. 

Dans cette action, la FTC fait valoir que des précédents résultats de tests rapportés par Intel « ne sont pas des mesures précises, ni réalistes quant à l'utilisation ou la performance d'ordinateur ordinaire, parce qu'elles n'ont pas été réalisées dans un cadre proche des «conditions réelles». 

Indépendamment des différences techniques entre processeurs et GPU, les puces graphiques sont aujourd'hui utilisées dans les systèmes informatiques haute performance, comme sur le super computer chinois Nebulae. Deuxième calculateur le plus puissant au monde combine en effet Intel Xeon et circuit 3D Nvidia. L'ajout de GPU à un système de ce type peut sensiblement augmenter les performances, tout en réduisant les coûts et la consommation d'énergie par rapport aux systèmes reposants sûrs de processeurs, a expliqué Iouri Drozdov, CEO du fabricant de supercomputer Novatte basé à Singapour. 

L'année dernière, Novatte a construit un système pour une banque qui voulait baisser le prix de ses machines. Le supercomputer, dont le coût dépasse le million de dollars, repose sur 60  processeurs Intel Xeon et 120 GPU Nvidia. Un système aux performances similaires utilisant uniquement des Xeon coûterait 1,6 million de dollars et consommerait jusqu'à 28% de plus. Ce qui rendrait au final ce dernier plus coûteux à utiliser que le système construit avec les GPU, précise Iouri Drozdov. 

Pour sa part, Intel reconnaît l'importance d'avoir une solution de traitement en parallèle afin de compléter sa gamme processeurs. Après avoir tenter de développer sa propre gamme GPU avec le projet Larrabee (vite abandonné), en mai dernier le fondeur de Santa Clara a annoncé le développement d'une puce 50 coeurs baptisée Knights Corner, avec laquelle la société espère concurrencer efficacement  les fabricants de puces graphiques sur le segment du calcul haute performance. Intel n'a toutefois pas indiqué quand Knights Corner sera disponible.

(...)

(23/06/2010 16:57:57)

AMD Opteron 4000, une vraie puce serveur à partir de 99$

Jusqu'à présent connue sous l'appellation Lisbon, l'Opteron 4000 e, gravée en 45 nm, se destine au marché des serveurs bi-socket qui représente 75% du marché. « Ce segment est en croissance rapide nous explique Bernard Seité, directeur technique chez AMD .  « Avec l'Opteron 4000, nous proposons une puce consommant peu et ciblant le marché du cloud computing et du web hosting . »

L'Opteron 4000, qui vient remplacer la puce Istanbul, est en fait une demi-puce Magny-Cours, disponible avec quatre ou six coeurs par socket. Si le 4000 consomme moins d'énergie que la série Istanbul (jusqu'à - 24%), il offre les mêmes performances nous précise Bernard Seité. Commercialisé 99$, le processeur Opteron 4122, qui est au passage la première puce AMD pour serveur vendu moins de 100$, est doté de 4 coeurs à 2,2 GHz par socket (avec 8 Mo de mémoire cache) et consomme 75 watts (mesure ACP). À titre de comparaison, une puce équivalente chez Intel est facturée 167$ selon la dernière liste de prix du fondeur publié le 20 juin dernier.

Une série basse consommation

La famille 4100 comprend également deux puces six coeurs, les Opteron 4162 EE et 4164 EE, consommant juste 32 watts. Cadencé à 1,7 GHz, le 4162 EE est vendu 316$, et le 4164 EE à 1,8 GHz est à 698$. Le fondeur de Sunnyvale a également dévoilé cinq Opteron 4100 six coeurs consommant de 50 à 75 watts à des fréquences comprises entre 2,1 et 2,8 GHz. Les tarifs vont de 174 à 316$.

L'amélioration de performances a été obtenue grâce au passage à la mémoire DDR3, à la vitesse du bus HyperTransport 3.0 qui passe de 4,8 à 6,4 GBit/s et bien sûr aux fréquences supérieures. Bernard Seité assure également que la compatibilité socket et bios des cartes mères sera assuré avec les prochaines générations de processeurs gravés en 32 nm, à savoir la série Bulldozer qui sera présentée en détail à la conférence Hot Chip organisée par l'Université de Sandford. Plusieurs constructeurs dont Dell, Gateways et SuperMicro sont déjà sur les rangs pour intégrer ces puces à leurs gammes serveurs lame selon Bernard Seité.

 

 

(...)

(21/06/2010 15:54:12)

10 coeurs par socket pour la puce Intel Westmere-EX

Dans un document  baptisé "Westmere-EX: A 20 Thread Server CPU, ", Intel dévoilera à la prochaine conférence Hot Chips, du 22 au 24 aout à l'Université de Stanford (Palo Alto, Californie), une évolution majeure de sa plate-forme Xeon Westmere-MP. Quelques mois après la commercialisation de cette dernière, le fondeur de Santa Clara pousse sur le devant de la scène une évolution attendue et tout simplement baptisée Westmere-EX. Toujours gravée en 32 nm, cette dernière pourrait intégrer jusqu'à 10 coeurs physiques par processeur contre huit les Nehalem-EX (45 nm) et 6 pour les Westmere-MP (32 nm). En effet comme cette puce est capable d'exécuter simultanément deux threads par coeur physique, et qu'Intel annonce une puce Westmere-EX 20 threads par socket - contre 16 pour le Nehalem-EX - on arrive à un total de 10 coeurs. Par  le passé, la firme avait déjà indiqué que les puces Westmere-EX devraient comprendre des coeurs fonctionnant à des vitesses plus rapides que les Nehalem- EX. Sans fournir plus de détails, un porte-parole d'Intel a déclaré que les Westmere-EX cibleront le marché des serveurs avec quatre sockets et plus ou AMD propose son Magny-Cours supportant jusqu'à 12 coeurs par socket. Intel propose déjà des puces basées sur l'architecture Westmere pour les PC portables, les ordinateurs de bureau et les serveurs qui peuvent exécuter simultanément deux threads par coeur.

Lors de cette conférence à l'Université de Stanford, d'autres entreprises, comme IBM ou AMD, parleront également de leurs prochaines puces pour serveurs. Big Blue a prévu de présenter sa nouvelle génération de microprocesseur pour System Z et  AMD parlera de son architecture haut de gamme pour station de travail et serveur, Bulldozer, et de son processeur BobCat pour ultraportables et PC basse consommation.

 

(...)

(21/06/2010 15:49:01)

Watson, un superordinateur s'essaye au jeu TV

Après Deep Blue qui avait vaincu Gary Kasparov aux échecs en 1997, IBM relève un nouveau challenge en inscrivant son supercalculateur, Waston, à l'émission de télévision Jeopardy. Le concept est de retrouver la question qui correspond à la réponse donnée par l'animateur. L'ordinateur sera en compétition avec deux autres joueurs, qui ont été sélectionnés pour leurs bonnes prestations antérieures.

Depuis 3 ans, les ingénieurs d'IBM ont travaillé sur la mise en place d'un ordinateur, baptisé Watson, qui utilise les ressources du supercalculateur Blue Gene,  uniquement axé sur le  jeu télévisuel. La mission est double, comprendre la question posée en langage humain (et donc de prendre en considération élocution et accent du présentateur) et trouver la réponse (qui en l'occurrence est une question). Pour cette dernière partie, le superordinateur a compilé des millions de données (aucun accès à Internet n'est établi), mises en musique par des algorithmes pour comprendre et analyser les propos de l'animateur.

Plusieurs tests ont été réalisés et Watson gagne dans la plupart des cas contre des candidats de bons niveaux. Cependant, il a certaines faiblesses quand le jeu dérive sur des jeux de mots ou des expressions particulières. La vraie confrontation aura lieu à l'automne.

 

Crédit Photo: IBM

(...)

(14/06/2010 09:13:06)

Stockage, réseaux, serveurs... Dell renforce ses gammes

Pour améliorer son offre entreprise, Dell étoffe justement sa gamme de stockage issue du rachat d'EqualLogic, annonce la version 5 du firmware de ces produits, dévoile des serveurs lame et rack 2U bi sockets et ajoute des switch Juniper rebadgés à son catalogue.  Une montée en puissance progressive pour accompagner la transformation des datacenters vers le cloud.

Déjà associé à plusieurs équipementiers comme Brocade ou Blade Technologie, Dell qui a annoncé un partenariat avec Juniper en octobre dernier, a dévoilé cette semaine ses premiers produits basés sur JunOS, à savoir les core switch PowerConnect J-EX8208 et J-EX8216, un commutateur empilable, le J-EX4200, et l'appliance d'administration PowerConnect J-SRX100. Ces produits Juniper rebadgés Dell sont attendus en juillet prochain à des prix non communiqués. L'intégration de ces produits permet à Dell de proposer un choix plus large à ses clients. La société a également étoffé sa gamme issue de son partenariat avec l'équipementier de San Jose, avec l'annonce de son premier commutateur de coeur de réseau Brocade, le B-RX16 (38 500 $), et du PowerConnect 8024 (15 000 $), le premier switch 10 Gigabit Ethernet au catalogue de la compagnie texane. Deux cartes Fibre Channel 8 Gigabit, les Brocade 815 et 825 complètent le tableau. 

Dans le même temps, Dell a présenté ses baies de stockages hybrides et un nouveau firmware pour sa gamme NAS iSCSI EqualLogic. « Disponible gratuitement pour tous les clients qui bénéficie d'un contrat de support, le firmware 5.0 peut être intégré sans interruption de service »  précise Pierre Fournial, responsable de l'activité stockage chez Dell. Il suffit de procéder un contrôleur après l'autre. Cette version 5 apporte, par exemple, l'équilibrage de charge automatique entre les SSD et les disques durs rotatifs. La baie SAN hybride PS6000XVS, justement dévoilée, tire partie de cette fonctionnalité et permet aux entreprises de répartir « intelligemment » les données entre SSD et disques durs. La baie analyse en fait les données les plus souvent demandées pour les placer sur le support le plus rapide. En utilisant un algorithme très fin, le firmware peut changer les données plus fréquemment que la plupart des d'autres systèmes de gestion des ressources de stockage, nous explique Pierre Fournial. 

Illustration : baie de stockage SAN PS6000XVS, crédit Dell

[[page]]

Dell proposait déjà des baies équipées de SSD, mais la série PS6000XVS permet de combiner les deux technologies (disques rotatifs à 15 000 t/m et mémoire Flash) pour permettre aux entreprises d'introduire progressivement les supports SSD. Deux modèles sont en fait proposés par Dell, le PS6000XVS d'une interface iSCSI à 1 Gigabit, et le PS6010XVS à 10 Gigabit. Disponibles début aout, ces produits seront commercialisés à partir de 50 000 $. 

Le firmware 5.0 d'EqualLogic apporte également une intégration plus étroite avec les plates-formes de virtualisation de VMware. Un client de Dell qui a été déjà testé le nouveau firmware sur ses baies EquaLogic estime que cela renforce considérablement l'efficacité. Selon Joshua Wright, DSI de la société Bomgar, ce firmware 5.0 a permis de décharger VMware de certaines fonctions clefs. Surtout, il permet la création et le clonage de machines virtuelles au sein de la baie de stockage où elles sont hébergées. Bien que ces machines virtuelles ne contiennent généralement que le système d'exploitation, Windows 2008 OS occupe une grande partie de l'espace (jusqu'à 15 Go), souligne Joshua Wright. Et lorsque l'hyperviseur VMware ESX travaille sur ces questions, il exige de grosses ressources sur les serveurs et sur le réseau. En déchargeant, VWmare de ces fonctions, les opérations se déroulent beaucoup plus rapidement et l'hyperviseur comme le réseau peuvent être utilisés pour d'autres choses. 

« Quel système est mieux optimisé pour l'exécution d'une tâche particulière? Il est évident qu'une baie de stockage va être le meilleur système pour effectuer des opérations de stockage, » avance le responsable informatique. La société Bomgar, qui emploie 145 personnes à Ridgeland dans le Mississippi, prévoit de déployer sur toutes ses baies le nouveau firmware dès qu'il est disponible. Dell a annoncé qu'il sera disponible mi-juin pour tous les clients EqualLogic. 

[[page]]

Le texan a également mis à jour sa gamme de stockage d'entrée de gamme avec les baies MD3200 SAS (Serial-Attached SCSI) et MD3200i (iSCSI) qui remplacent les MD3000 et MD3000i. Elles seront également disponibles mi-juin à disponibles la semaine prochaine à partir de 11 000 $ environ. 

Terminons avec les annonces serveur et la version 3.0 de l'outil d'administration CMC. Après les lames quadri sockets, Dell commercialise la M710HD une lame demi-hauteur bi sockets Intel Xeon 5600 équipée de 18 connecteurs Dimm. En complément, la compagnie propose la M610X, une lame pleine hauteur avec des ports PCI Express pouvant accueillir des GPU pour le calcul intensif. Enfin, le serveur 2U R715 renforce la présence d'AMD chez Dell avec un système bi socket Magny-Cours doté de 18 slots Dimm. « Un bon rapport coût/prix »  précise Pierre Fournial, « d'autres systèmes AMD sont également prévus en fin d'année. »

Avec cette salve d'annonces, Dell marque au plus près ses principaux concurrents. Et grâce à ses partenariats avec Juniper et Brocade, Dell est plus en mesure de se battre à armes égales avec les grands fournisseurs de datacenters que sont Cisco et Hewlett-Packard.

(...)

(07/06/2010 16:19:58)

Cisco-Juniper, une concurrence acharnée sur les datacenters

La bataille a démarré en 1996 lors de la création de Juniper. A cette époque, Cisco régnait en maître, depuis 1984, sur le marché des routeurs pour les entreprises et pour les fournisseurs de services. Mais, avec le développement de l'Internet, les sociétés de capital-risque, ainsi que les clients mécontents de Cisco ont investi dans une start-up pour contrecarrer son hégémonie en particulier vers les ISP. La première année, Juniper a compté sur les investissements de la famille Anschutz (actionnaire majoritaire de Qwest), AT&T, Ericsson, Lucent, Nortel, Siemens/Newbridge Networks, 3Com et UUNET. IBM avait signé un accord pour développer un ASIC pour les routeurs de la jeune société, avec comme premier produit le M40.

Avec ces soutiens de poids, Juniper est devenu le plus redoutable concurrent de Cisco sur les routeurs pour les ISP. L'entreprise dispose d'une part de marché de 30% sur un marché de 8 milliards de dollars. Elle a bénéficié d'un état de grâce, en étant le chouchou des spécialistes pendant 10 ans, en proposant des produits sur mesure, combinant logiciel et circuit dédié.

C'est un élément différentiateur par rapport à Cisco. Ce dernier a été perçu comme un fournisseur de produits de classe entreprise, qui étaient déployés par les entreprises les plus exigeantes en matière de routage. La position dominante sur ce marché a provoqué une forte demande de la part des clients pour une offre alternative. L'apparition de Juniper n'a pas été négative pour Cisco. Celle-ci a été redynamisée par l'émergence d'un nouvel acteur, mais également par la récente progression d'Alcatel-Lucent, dans les activités de routeurs périphériques pour les fournisseurs de services.

Une concurrence multi-support converge vers le datacenter

Et Cisco détient toujours une part de marché importante auprès des entreprises et des fournisseurs de service de routeur, avec une clientèle fidèle. Mais les deux sociétés jouent la course en matière technologique sur le coeur et la périphérie du réseau. Aujourd'hui, cette bataille se déroule sur les multi-châssis pour les coeurs de réseaux avec d'un côté le Carrier Routing System de Cisco contre la série T de Juniper, pour la suprématie dans les capacités de 10 ou 100 Tbits. Cette guerre porte aussi sur l'aspect logiciel, d'un côté Junos et de l'autre IOS.

Juniper occupe également le terrain des datacenters d'entreprises et des environnements de cloud computing. Encouragé par son succès dans le routage, elle a dévoilé, il y a 2 ans, des commutateurs Ethernet, en essayant de devenir une alternative crédible à la position dominante de...Cisco. Juniper souhaite se faire une place sur des marchés de niches, comme les transactions financières, le calcul haute performance et d'autres environnements d'entreprises spécifiques. Sur le datacenter, les deux sociétés ont noué des partenariats stratégiques, Cisco avec EMC et Juniper avec IBM. L'enjeu, simplement sur les questions de routage, représente une opportunité de plusieurs milliards de dollars (85 milliards de dollars dans le cloud privé en 2015 selon Cisco). L'objectif est de devenir le leader sur un marché très lucratif des datacenters de prochaine génération et d'en profiter pour verrouiller l'accès à ce marché pour d'autres concurrents, comme Arista, F5 networks. Juniper devrait dévoiler prochainement son projet Stratus, qui vise à structurer et simplifier les datacenters, avec une réduction des couches réseaux. Ce projet entre directement en concurrence avec les Nexus, de Cisco, basés sur l'architecture Unified Communication System.


Illustration: Switchs Juniper

(...)

(31/05/2010 18:37:41)

Intel propose un processeur 32 coeurs pour serveurs HPC

« Cette puce, connue sous le nom Knights Ferry, est le processeur le plus rapide qui peut traiter plus de 500 Gigaflops de données », souligne Kirk Skaugen, vice-président et directeur général du data center group chez Intel, lors d'un discours à la conférence International Supercomputing à Hamburg. Les coeurs de la puce sont cadencés à 1,2 GHz. Il s'agit d'un premier produit de la gamme destinée aux serveurs, appelée Knights. Cette dernière repose sur une architecture spécifique, baptisée MIC (Many Integrated Cores). Les puces 32 coeurs en kit de conception et de développement seront disponibles au second  semestre 2010.

La puce Knights Ferry devrait être gravée en 45 nanomètres. Elle intègrera 32 puces Xeon associées à des capacités graphiques de 512 bit installées sur le port PCI-Express. La puce autorisera 4 threads par coeur et comprendra 8 Mbits de mémoire cache partagée et jusqu'à 2 Gbits de mémoire GDDR5.

Le premier produit commercial comprendra plus de 50 coeurs et sera appelé Knights Corner. Aucune date de disponibilité n'a été annoncée. Néanmoins, la puce devrait s'appuyer en partie sur l'architecture du Sandy Bridge avec une gravure en 22 nanomètres. Ce processeur devrait intégrer les serveurs et les ordinateurs portables en 2011.

Le couplage CPU et GPU indispensable


« L'architecture Knights est la plus aboutie pour les serveurs depuis qu'Intel a lancé les puces Xeon » explique Kirk Skaugen. La puce comprendra des éléments du projet Larrabee, qui devait permettre à Intel de développer une puce affectée au graphisme et au calcul.

[[page]]

Le groupe a décidé la semaine dernière d'abandonner cette technologie, tout en indiquant reprendre des éléments pour les serveurs et les ordinateurs portables. Cette architecture entrera en compétition avec les processeurs de Nvidia Tesla et FireStream d'AMD, qui couple des centaines de coeurs axés sur les calculs pour améliorer les performances.

Les processeurs graphiques sont plus rapides pour l'exécution de certaines applications spécialisées. Le second supercalculateur le plus rapide du monde, Nebulae en Chine, combine des CPU avec des processeurs graphiques.

Intel a beaucoup de produits pour les serveurs dans son agenda. Plus tôt ce mois-ci, le fondeur a planifié la succession des Nehalem-EX à 8 coeurs pour l'année prochaine avec plus de coeurs et de rapidité. Ces puces, nommées Westmere-EX s'adressent aux serveurs disposant d'au moins 4 sockets ou plus. La firme a aussi développée une puce x86 48 coeurs avec un design maillé, mais sans annoncer de disponibilité.

(...)

(31/05/2010 10:22:08)

Forte baisse des ventes de serveurs Unix au 1er trimestre selon IDC

Le segment des serveurs Unix a été particulièrement touché par la récession. Les derniers chiffres sur les parts de marché fournis par IDC montrent que les utilisateurs ont reporté l'achat de nouveaux systèmes Unix. Les dépenses globales de ces derniers mois sont en effet parmi les plus basses jamais enregistrées. Le rapport du cabinet d'analyste souligne que le chiffre d'affaires est tombé à 2,3 milliards de dollars, soit un peu plus de 22% du total des dépenses engagées sur le marché des serveurs au cours du premier trimestre 2010. La part de marché des systèmes Unix est en baisse de 10,5 points par rapport au même trimestre de l'an dernier.

Les serveurs Unix moyen et haut de gamme sont traditionnellement utilisés pour exécuter des missions critiques pour l'entreprise, mais depuis plusieurs années, on assiste à une lente érosion de leur part de marché au profit des solutions x86-64. Plusieurs variantes se partagent encore aujourd'hui le segment, à savoir Solaris, AIX et HP-UX. Le déclin de ces systèmes est particulièrement spectaculaire dans le secteur du calcul intensif. La liste du Top500 des supercalculateurs offre des statistiques détaillées sur les processeurs, l'architecture et les systèmes d'exploitation déployés dans ces machines. L'année dernière, Linux a été l'OS de choix pour 78% des supercomputers du Top500, et même un peu plus lorsque les implémentations spécifiques de Red Hat et de Suse sont ajoutées au total. En comparaison, les solutions Aix d'IBM ne représentent plus que 4,4% des systèmes. Toujours à titre comparatif, Linux ne totalisait que 61% des machines du Top 500 en 2005, tandis que le mieux classé des Unix était HP-UX à près de 15%. La dernière liste du Top 500 sera disponible le lundi 31 mai 2010.

Illustration serveurs HP Integrity, crédit D.R.

[[page]]

Malgré ces derniers chiffres, il est important de noter que les systèmes Unix représentent encore un chiffre d'affaires non négligeable sur le marché des serveurs, et demeurent un élément important des systèmes d'information. Jean Bozman, analyste chez IDC, a cité une combinaison de facteurs expliquant la forte baisse des ventes des machines Unix au premier trimestre. Tout d'abord, souligne-elle, la récession a retardé les ventes de serveurs Unix, qui sont généralement remplacées tous les cinq ou sept ans - plus que la plupart des systèmes x86. Les acheteurs de serveurs Unix ont peut-être également attendu qu'Oracle achève la digestion de Sun Microsystems, en janvier dernier, pour arrêter leurs options d'achat. En outre, l'analyste note que les utilisateurs de solutions Unix attendent également les mises à niveaux de HP, qui a récemment annoncé de nouveaux produits dans sa gamme Integrity, et d'IBM, qui proposera une évolution de ses serveurs un peu plus tard dans l'année. «Ce n'est pas seulement un point, mais plusieurs qui expliquent la baisse des ventes de serveur Unix. L'analyste explique encore qu'il est trop tôt pour dire si ces résultats du premier trimestre indiquent un abandon de la plate-forme Unix.

L'engagement d'Oracle reste la grande inconnue sur ce marché

Selon IDC, dans l'ensemble, le marché mondial des serveurs a augmenté de 4,6% en glissement annuel à 10,4 milliards de dollars au premier trimestre. La semaine dernière, le cabinet Gartner estimait à 6% la croissance de ce marché pour le 1er trimestre avec un chiffre d'affaires global de 10,75 milliards de dollars. Les deux entreprises ont indiqué que les systèmes x86 étaient le principal vecteur de croissance. "Il est vraisemblable que cela va demander un certain temps pour comprendre où va le marché Unix", estime pour sa part Charles King, analyste chez Pund-IT à Hayward, en Californie.  Oracle reste «le principal point d'interrogation, bien que la société ait déjà indiqué qu'elle assurerait l'avenir des systèmes Sun Unix UltraSparc. [Oracle] a certes dit qu'il poursuivra le développement de cette plateforme, mais il va nous falloir un certain temps pour comprendre quelle direction la société va prendre » conclut-il.

(...)

< Les 10 documents précédentsLes 10 documents suivants >