Flux RSS
108538 documents trouvés, affichage des résultats 10801 à 10810.
| < Les 10 documents précédents | Les 10 documents suivants > |
(16/06/2009 19:26:21)
Bull propose un système HPC conçu pour la simulation
Le système HPC bullx annoncé aujourd'hui par Bull s'adresse à la clientèle bien particulière des entreprises friandes de simulation numérique. Ce type d'applications particulièrement complexe simule la réalité pour mieux la comprendre et est insatiable en ce qui concerne la puissance machine. Les utilisateurs potentiels sont aussi bien les industries automobile, l'aéronautique, l'exploration pétrolière, les finances, le nucléaire, les laboratoires scientifiques, la médecine, la climatologie, la défense, etc. La clientèle ne manque pas et son besoin en puissance est toujours croissant. « Un supercalculateur qui n'est pas utilisé aujourd'hui, ça n'existe pas, » insiste Fabio Gallo, responsable HPC de Bull. Après avoir examiné de près les besoins de ses clients, le constructeur français a opté pour des clusters Xeon 5500 qu'il a poussés dans leurs derniers retranchements. « Aucun compromis », selon Bull. Tous les moyens ont aussi été utilisés pour donner au système une performance énergétique optimale.
Bull a veillé aux exigences de ses clients HPC
Pour concevoir bullx en allant au-delà de la seule puissance, Bull a identifié une série de besoins auprès de ses clients. Pour commencer, ceux-ci veulent que le système soit capable d'une performance soutenue tout au long de l'exécution d'une application et pas uniquement d'une performance de crête, obtenue uniquement dans certaines conditions. Les entreprises sont aussi attachées à l'efficacité énergétique. Inutile de préciser que l'enveloppe énergétique d'un supercalculateur n'échappe pas à la forte croissance qui frappe toutes les infrastructures serveurs. De fait, pas question de gâcher le moindre watt.
Autre exigence des clients Bull dans le HPC, la protection de leur investissement. De telles infrastructures de supercalcul ne se changent pas tous les deux ans. Les technologies mises en place doivent donc être les plus avancées du moment. Les industriels et les laboratoires ont aussi interpellé le constructeur sur l'utilisation de technologies spécialisées pour l'accélération du calcul technico-scientifique. La performance des processeurs graphiques est ainsi désormais considérée comme intéressante d'autant qu'elle n'augmente que très peu la consommation électrique de l'ensemble du système. « Mais la facilité d'utilisation dans ces systèmes HPC n'était pas leur point fort, et nous devions travailler sur le sujet », précise Fabio Gallo. Enfin, tous les clients concernés ont exigé de Bull pour leur supercalculateur, la facilité d'installation, d'utilisation et de gestion, ainsi que la fiabilité.
Des lames purement Xeon 5500 et des lames avec GPU
« Nous avons donc tout simplement développé une nouvelle architecture, raconte Fabio Gallo. Elle est exclusivement conçue pour la simulation numérique, et de ce fait, elle est sans compromis. » Bull n'a pas souhaité faire de concession au supercalcul et à l'optimisation de la puissance pour garder une configuration qui pourrait servir à d'autres utilisations que la simulation. « Si on se frotte à l'optimisation de la performance, il faut une architecture idoine du système de mémoire, il faut utiliser le chipset le plus performant. A tout moment de la conception du système, nous avons gardé en tête la performance applicative et l'élimination de tous les goulets d'étranglement qu'elle implique. »
Les lames de bullx s'appuient sur l'architecture de processeur Xeon 5500 d'Intel (ex Nehalem). Mais Bull a donc choisi les puces les plus rapides de la gamme produites par Intel. « Nous avons aussi opté pour l'architecture mémoire la plus performante possible pour les noeuds, détaille Fabio Gallo. Nous installons des Xeon 5500 avec le nombre maximum de canaux de mémoire, c'est à dire 3 par processeur, et avec 2 barrettes par canal. » Mais l'innovation principale du système réside dans le mélange, dans les mêmes armoires, de lames traditionnelles contenant uniquement des Xeon 5500 avec des lames spécialisées intégrant à la fois le processeur d'Intel et un GPU (Graphical processor unit) Nvidia. « L'intégration des deux parties peut être le point qualifiant du système », insiste Fabio Gallo. Il s'agit en effet pour l'entreprise utilisatrice du système de trouver le bon point d'équilibre en fonction de ses applications. Les processeurs graphiques sont connectés via une interface PCI Express et l'architecture des lames est conçue pour que la bande passante entre les deux puces, standard et graphique, soit maximale. « Normalement, il n'y a qu'un chipset pour le serveur, et les deux processeurs bisockets utilisent le même, détaille Fabio Gallo. Pour nos lames spécialisées, nous utilisons deux chipsets pour que chaque processeur ait un accès dédié vers l'accélérateur. »
Le commutateur Infiniband directement dans le fond de panier
Comme toute médaille a son revers, ce type d'architecture totalement nouvelle implique pour être utilisé au mieux la mise au point de nouvelles applications spécifiques ou le portage des anciennes. « Sur les lames accélérées, nous travaillons depuis un an au portage et à l'optimisation des applications avec nos clients, confirme Fabio Gallo. Pour certaines applications bien structurées, nous pouvons obtenir un facteur d'accélération de 10. Il faut identifier les parties de code qui se prêtent à ce type d'accélération, ensuite il faut procéder à leur portage et à leur compilation avec des méthodes légèrement différentes sur l'accélérateur. »
[[page]]
Bull propose un système HPC conçu pour la simulation
Page précédente : 1/2
Le choix des processeurs n'est pas la seule amélioration du système. Ainsi, le commutateur Infiniband est-il intégré directement dans le fond de panier et non pas installé en tant qu'élément isolé. Un moyen évident d'économiser de l'espace et de limiter le câblage, mais pas seulement. Les performances devraient là encore être au rendez-vous, et également améliorées. Pour commencer, la distance entre le commutateur et les serveurs est réduite. « Les réseaux très haut débit sont aussi très sensibles au rayon de courbure des câbles, rappelle Fabio Gallo. Si une intervention doit avoir lieu sur le système, leur manipulation peut avoir un impact sur la fiabilité. » Le réseau Infiniband est utilisé en mode QDR (Quad Data Rate), le plus performant actuellement disponible.
La suite d'administration s'appuie sur des briques libres
Enfin, avec un système aussi complexe, une suite d'administration s'imposait. Bull en a mis une au point qui s'appuie en majorité sur des composants libres. Cet outil réduit la complexité du cluster en proposant un point de contrôle unique pour le matériel. La base d'inventaire Cluster DB recense tous les composants du cluster et identifie précisément, en cas de problème, quel câble ou quelle barrette mémoire sont concernés.
Au final, chaque châssis (7U) contenant 18 lames bullx peut atteindre près de 1,7 Tflops. Dans chaque châssis, on compte une rangée de 8 lames et une rangée de 10 dont les commutateurs, les écrans, les ventilateurs. « Le nombre de 18 n'a pas été choisi au hasard, précise d'ailleurs Fabrice Gallo. Le commutateur Infiniband QDR dispose de 36 ports, soit 18 entrées et 18 sorties. » Là encore, il s'git d'optimiser. Chaque armoire (42U) peut accueillir jusqu'à 6 châssis et représentera une puissance totale d'environ 10 Tflops.
Une porte de refroidissement à l'eau
Economie et écologie obligent, de telles configurations, aussi puissantes, ne se conçoivent plus sans optimiser la consommation électrique et la gestion thermique. Pour limiter à la fois la dissipation de chaleur et éviter les systèmes de climatisation chers et consommateurs d'énergie, Bull, comme IBM l'a déjà fait, remet au goût du jour les systèmes de refroidissement à eau. Il installe des portes à eau à l'arrière des armoires (qui consomment jusqu'à 40 kW). La chaleur est absorbée par ces portes et est transmise par un fluide. Ces cloisons intègrent par ailleurs des capteurs et des systèmes de contrôle qui permettent aux ventilateurs de marcher ou pas. Ce sont eux qui renvoient l'air dans la salle à la même température que lorsqu'il est entré. Les ventilateurs servent à garantir que le flux d'air ne soit pas interrompu. Selon le constructeur français, ces éléments installés directement sur les systèmes sont, par essence, bien plus ciblés que le refroidissement complet de la salle qui héberge l'infrastructure. Un ciblage qui se traduirait par une efficacité accrue de près de 75% et une économie d'énergie augmentée d'autant. Par ailleurs, le système devrait pouvoir supporter une température de ... 35°C. L'absence de panne reste à prouver, dans ce cas.
Survivre à des 'burn out'
Des dispositifs intégrés permettent aussi aux lames de survivre à des 'burn out' ce qui évite de faire appel à des onduleurs, appareils qui introduisent selon Bull entre 10 et 20% de perte de la puissance électrique. Les 'burn out' sont des interruptions d'alimentation de quelques fractions de secondes qui sont à l'origine des pannes non prévues les plus fréquentes des systèmes. Le dispositif qui pallie ce problème est un condensateur avec un système de contrôle qui intervient en cas de microcoupure. Les noeuds de calcul qui représentent 90% de la puissance électrique consommée par la configuration continuent de fonctionner, même sans onduleur. Seuls les noeuds destinés à l'administration restent équipés d'onduleurs, mais leur consommation représente un faible pourcentage.
Pour ce qui est du prix, les estimations sont toujours particulièrement difficiles avec ce style de configurations modulaires et haut de gamme. « Sur des systèmes départementaux, modestes, on peut démarrer en dessous de 100 000 euros, et pour les plus grands systèmes, on atteindra plusieurs dizaines de millions d'euros », précise néanmoins Fabio Gallo... Le premier client bullx est l'Université de Cologne en Allemagne. (...)
Le RGI est enfin publié après quatre ans de chantier
Le feuilleton est-il enfin terminé ? La fin ne serait pas nécessairement la meilleure possible pour les poches des contribuables. Après plus de deux ans de retard, le Référentiel Général d'Interopérabilité (RGI) vient en effet d'être publié en version 1.0. Dans ce document très riche qui vise avant tout à faciliter l'interopérabilité des SI publics par un grand nombre de principes, un point (un détail, même) faisait blocage depuis deux ans : la place de Microsoft. Il y a deux ans, le seul standard bureautique réellement normalisé et ouvert se nommait OpenDocument et n'était pas supporté par Microsoft. Imposer ce format dans le RGI signifiait donc exclure Microsoft (et ses logiciels payants) de tous les postes de travail de l'administration, au profit, notamment, d'outils libres (donc gratuits en terme de licences) tels que OpenOffice. La réaction de l'éditeur fut violente, à la hauteur de l'enjeu. Et le RGI prit deux ans de retard... Le point 3.2.1 du RGI (page 61) prend acte de la « normalisation » du standard bureautique XML de Microsoft, OpenXML, et traite sur un plan d'égalité OpenXML et OpenDocument, sans imposer l'usage de l'un ou de l'autre. Rappelons cependant que OpenDocument est actuellement parfaitement supporté par de nombreux produits dont OpenOffice/StarOffice, GoogleApps, les outils bureautiques d'IBM... et, imparfaitement, par Microsoft Office 2007 SR2. A l'inverse, la version normalisée d'OpenXML n'est supportée par aucun logiciel actuellement commercialisé, Microsoft Office 2007 employant un format intermédiaire, appelé à disparaître dès que la version normalisée par l'ISO sera implémentée dans la version suivante de Microsoft Office, exactement comme l'éphémère format XML de Microsoft Office 2003. Si ce « point de détail » a bloqué la publication du RGI durant deux ans, le reste du document devrait faciliter la vie des responsables informatiques des administrations et établissements publics ainsi qu'inspirer utilement les DSI des collectivités locales. Efficacité et efficience des SI publics [[page]] L'interopérabilité facilite en effet l'interconnexion des SI publics, ce qui permet, à moindre coût et plus rapidement, de délivrer de nouveaux services au public basés sur l'échange d'informations entre services. Les composants développés à un endroit et respectant les principes du RGI, dans une DSI publique, peuvent être réemployés aisément par une autre DSI publique : le RGI vise aussi à accroitre la mutualisation des investissements. Parmi les préceptes du RGI, on trouve bien entendu des considérations très techniques mais aussi des indications méthodologiques ou, plus prosaïquement, des règles de vocabulaire pour que chacun puisse comprendre son voisin et utiliser les mêmes référentiels. Le recours aux normes ouvertes (au sens de la Loi sur la Confiance dans l'Economie Numérique) est un axe majeur. Les formats bureautiques (même le PDF !) restent cependant à l'état de « recommandés »(PDF, XML) voire à « en observation » (OpenDocument, OpenXML). En effet, toutes les bonnes pratiques du RGI se heurtent à un impératif : l'autonomie de gestion des établissements et des collectivités. De nombreuses règles sont donc, elles aussi, « recommandées » voire « en observation ». On doit chercher les normes obligatoires (l'usage du POP3/SMTP et de S/MIME pour l'envoi de courriels, XMPP pour la messagerie instantanée, TCP, HTTP...). Dans certains cas, un protocole est déclaré obligatoire (IPv4 par exemple) mais il est recommandé de prévoir une possible évolution vers la version suivante (IPv6 dans cet exemple). Les objectifs du RGI sont classiques dès lors que l'on parle de faciliter l'interopérabilité. (...)
(16/06/2009 17:06:34)Microsoft Visual Studio 2010 Lab Management entre en phase bêta
La réponse de Microsoft au Lab Manager de VMware a atteint la phase bêta. Comme lui, et comme les produits de VMLogix, de Surgient et de Skytap, Visual Studio 2010 Lab Management vise à permettre d'automatiser la gestion des machines virtuelles en environnement de développement. Ce type d'outils permet un gain considérable de temps et d'énergie. Visual Studio 2010 Lab Management est construit avec des briques en provenance d'Hyper-V (hyperviseur), de Visual Studio 2010 (environnement de développement) et de l'outil d'administration System Center Virtual Machine Manager (SCVMM) 2008. Il bénéficie d'un atout : son intégration dans Team Foundation Server (TFS). (...)
(16/06/2009 16:16:28)L'éditeur polonais Comarch veut se faire un nom en France
Presque inconnu en France pour l'instant même s'il y compte déjà plusieurs clients et quarante collaborateurs, l'éditeur polonais Comarch entend bien développer ses activités de façon significative dans l'Hexagone. Ses logiciels de facturation et de gestion de réseaux pour les opérateurs de télécommunications lui ont permis d'entrer chez Bouygues Telecom et Auchan Telecom. Mais il compte aussi bâtir d'ici 2010 un réseau de distribution indirecte afin de diffuser son ERP pour PME de négoce, Comarch Altum. Ce produit, basé sur la technologie Microsoft .Net, se pose en concurrent d'ERP tels que ceux de Divalto ou Cegid. Il est vendu sous forme de licences, à partir 500 euros par utilisateur (900 euros avec ses fonctions de workflow et d'analyse décisionnelle).
55% du chiffre d'affaires réalisé à l'international
Au niveau mondial, Comarch a déjà pris pied dans une quinzaine de pays. Créé en 1993 par Janusz Filipiak, il réunit 3 500 salariés et 57 000 clients, parmi lesquels T-Mobile, Vodafone et O2. Outre ses solutions pour les opérateurs télécoms (30% de son chiffre d'affaires total en 2008), l'éditeur déploie ses applications de gestion sur trois autres marchés : la distribution et les services (avec notamment la gestion des cartes de fidélité, chez BP France, par exemple), la banque (avec une forte présence en Ukraine) et le secteur public. L'an dernier, Comarch a réalisé 55% de son chiffre d'affaires de 200 M€, hors de son marché national. Janusz Filipiak, son PDG, souligne que 13% de ce CA a été investi en R&D en 2008 (le groupe dispose de quatre centres de R&D en Europe).
Bien implanté à Lille
Sur l'Hexagone, les équipes de Comarch se répartissent entre Lille, où l'équipe conseil et technique est installée, et l'antenne parisienne à vocation commerciale. A Grenoble se trouvent par ailleurs dix personnes investies dans le développement de l'offre télécom. L'éditeur polonais focalisera son activité française sur son ERP pour PME et sur le marché des télécoms. Il insiste sur l'aspect intégré de son offre destinée aux opérateurs avec laquelle il entre en concurrence avec des acteurs comme Oracle ou Amdocs. Dans un premier temps, Comarch concentrera son action commerciale sur la Région Nord Pas-de-Calais et sur Paris. (...)
Les sept conseils du Gartner pour réduire les coûts des datacenters
"Supprimer un seul serveur x86 permet d'économiser 400 dollars juste en frais d'électricité" explique Rakesh Kumar, vice president du Gartner Group. Très dans l'air du temps, le cabinet de consultants indique sept pistes pour réduire les coûts des datacenters dans des délais de 12 à 18 mois. Ces idées se déclinent ainsi : rationaliser les équipements, consolider les sites, gérer les coûts électriques, renégocier les contrats, optimiser les ressources humaines et la politique d'équipement et, enfin, virtualiser. Rationaliser les équipements peut paraître une évidence, mais le Gartner souligne que cet effort a aussi des répercussions positives sur la gestion d'inventaire, l'optimisation des contrats de licences et la réduction de la consommation électrique. Le cabinet met en avant une économie de 5 à 10% sur les coûts d'équipements. Dans sa liste de conseils, le Gartner évoque aussi le rallongement des durées d'amortissement des matériels, tout en rappelant que les coûts de maintenance peuvent grimper avec l'âge de ces derniers. Mieux vaut trouver le bon équilibre. Au niveau des datacenters cette fois, et non plus uniquement des serveurs, une démarche de rationalisation se traduira par la consolidation des sites. Cette opération peut déboucher sur une réduction de 5 à 15% du budget informatique total. Dans ce cas, les économies portent sur les loyers des bâtiments, mais aussi sur la disparition de ressources redondantes, qu'elles soient matérielles ou humaines. En ces temps de pénurie de compétences, le Gartner tiens néanmoins à préciser qu'il faut réfléchir à deux fois avant de décider une réduction des effectifs. La consolidation de datacenters permet par ailleurs de réduire le nombre de licences, de contrats de support et de diminuer le plan de reprise d'activité. La virtualisation fait bien évidemment partie des démarches préconisées par le Gartner. Elle est en particulier le meilleurs moyen pour consolider des datacenters et cristallise nombre de réductions de coûts énumérées par le cabinet de consultants. Sachant qu'elle réclame un important effort d'administration et une attention particulière pour la gestion des licences logicielles. Néanmoins, elle permet, en réduisant le nombre de serveurs, d'atteindre un gain net dès 24 mois, sans parler d'économies d'énergie pouvant aller jusqu'à 82% et de surface allant jusqu'à 86%. La concentration des serveurs, en particulier avec les lames, se traduit par ailleurs aussi par une consommation électrique au mètre carré en forte hausse et, en corollaire, par des besoins de climatisation supérieurs. Le Gartner, comme de nombreux constructeurs, conseille de laisser la température dans les salles machines à 24 degrés. A ce niveau, il rappelle aussi certaines techniques de climatisation à faible -voire très faible- coût : l'air ambiant, l'organisation des rangées de serveurs suivant des paramètres thermiques et, l'utilisation de serveurs de nouvelle génération, dont il est possible de contrôler l'activité. La Gartner n'oublie évidemment pas dans sa liste de conseils la renégociation de contrats avec les fournisseurs. De même, il évoque inévitablement les coûts de personnel. Pouvant atteindre 40% du budget IT, ils s'exposent aussi à des arbitrages parmi lesquels l'appel à des emplois délocalisés figure en bonne place. (...)
(16/06/2009 15:31:19)Dell dope ses ventes grâce à Twitter
Si le service de micro-blogging Twitter peine à trouver un modèle économique viable, ce n'est pas le cas de certains de ses utilisateurs. Ainsi, Dell a réalisé plus de 3 millions de dollars de chiffre d'affaires en vendant ses produits reconditionnés sur Twitter@DellOutlet. Ce fil de discussion - dont les ventes sont réservées au canal américain - a été lancé en juin 2007 et rassemble désormais près de 600 000 suiveurs (cela en fait l'un des cinquante fils de discussion les plus populaires du réseau social). Dell utilise Twitter pour poster des annonces sur son matériel reconditionné, émettre des coupons de réductions, ou lancer des invitations à des ventes privées. Sur les 3 millions de chiffres d'affaires réalisés, 2 millions l'ont été directement via Twitter et 1 million provenait d'autres ventes sur le site général de Dell, où les visiteurs étaient entrés via un lien sur Twitter. Ce modèle économique est si profitable que Dell le décline désormais en versions pour particuliers (@DellHomeOffers) et pour les PME (@DellSmBizOffers), et en versions localisées pour l'Irlande, le Royaume-Uni, l'Australie, le Brésil, la Chine, le Japon ou la Corée. Si ces ventes restent marginales dans le chiffre d'affaires global de Dell, elles intéressent très fortement Twitter qui cherche encore et toujours un moyen de monétiser son audience. Stefanie Nelson, responsable de l'activité Twitter et porte-parole de Dell, a ainsi indiqué que le réseau social s'était rapproché d'elle pour avoir son retour d'expérience. En vue de la création d'outils spécifiques pour les forces de vente des entreprises ? (...)
| < Les 10 documents précédents | Les 10 documents suivants > |