Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 1341 à 1350.
| < Les 10 documents précédents | Les 10 documents suivants > |
(22/06/2009 12:14:43)
Tibco propose une plateforme applicative « élastique » dans le cloud
Tibco, éditeur spécialisé dans le middleware, a décidé de se lancer... dans le middleware en ligne. Et pas forcément de la façon dont on s'y attendait, puisque à la différence de certains éditeurs du domaine des architectures orientées services (SOA) et des échanges interapplicatifs, Tibco ne fournit pas un simple service d'intermédiation en mode Saas, mais une véritable plateforme applicative en ligne, qu'on peut ranger dans la catégorie Apaas (Application platform as a service), pour suivre la classification de Gartner sur les offres de cloud. L'offre Tibco Silver ressemble un peu à celle de Microsoft, Azure, ou à celle de Google avec AppEngine, dans la mesure où il est proposé aux développeurs d'y déposer leurs applications, pour un tarif qui variera en fonction de l'usage : nombre d'utilisateurs et/ou de bande passante consommée et/ou d'instances de l'application déployées, etc. La grande différence, assure Tibco, c'est qu'avec Silver la montée en charge et le retour à une consommation moindre des ressources s'effectueront de façon automatisée. C'est dans cette automatisation des choses que Tibco met son savoir-faire, en rendant l'offre EC2 (Elastic compute cloud) d'Amazon vraiment élastique. L'éditeur a en effet adapté son offre de CEP (Complex event processing) pour surveiller l'utilisation des ressources et prendre des mesures prédéfinies. « Notre moteur de règles Business Events donne à la plateforme son élasticité, explique Thierry Schang, directeur de la R&D de Tibco. Il analyse non seulement la charge de la CPU, mais aussi l'évolution du temps de réponse des requêtes et les contrats de niveau de service pour chaque requête. » Des applications conformes à SCA déployées « en quelques minutes » Au fur et à mesure, d'autres outils seront adaptés à cet usage en ligne, notamment, indique Thierry Schang, en ce qui concerne la gouvernance et la sécurité. Un moteur d'orchestration de processus devrait également être de la partie. Le but est de pouvoir déployer des applications conformes au standard SCA (Service component architecture), de façon à pouvoir relier simplement consommateurs et producteurs de services. Tibco destine cette offre à des grandes entreprises souhaitant déployer rapidement des applications pour le grand public sans présumer de leur succès, ou bien des applications destinées à un usage interne mais dont l'usage subit des variations saisonnières - « typiquement des applications de paie ou de comptabilité utilisées juste quelques jours dans le mois ». En revanche, l'infrastructure d'Amazon sur laquelle s'appuie Tibco ne garantit pas sa disponibilité au delà de 99,95% (A noter qu'aux Etats-Unis, Amazon propose une fonction d'autoscaling qui permet de voir évoluer l'infrastructure en fonction de la montée en charge). Thierry Schang minimise ce problème face aux gains attendus : « Je ne pense pas que ce soit dangereux, on voit ce que ça peut apporter en souplesse, en rapidité de déploiement : on supprime les phases de spécifications, d'achat de serveurs... passant ainsi de plusieurs mois à quelques minutes ! » Disponible dès aujourd'hui en bêta - sur dossier - Tibco Silver accepte des applications en Java, .Net, Ruby, Python et C++. D'autres langages suivront. De même, Tibco évalue d'autres plateformes qu'EC2, ainsi qu'une possibilité de donner aux clients la maîtrise de la localisation géographique de leurs données. Aucun tarif n'est encore fixé. (...)
(19/06/2009 18:16:43)Sun pourrait abandonner ses processeurs Rock
Selon le New York Times, Sun aurait interrompu tous les développements de ses puces Rock à 16 coeurs destinées aux serveurs haut de gamme. Ce processeur multithreadé devait ainsi doubler le nombre de coeurs du plus performant des processeurs Sun, l'Ultrasparc T2. Le projet a été une des priorités les plus élevées chez le Californien qui a engagé d'imposantes sommes d'argent dans sa mise au point. Rock devait être disponible dès 2008, puis Sun l'a repoussé au second semestre 2009. Ce sont ces retards, en particulier, qui ont transformé le projet en une lourde charge financière pour Sun. Qui plus est, entre temps, des puces de plus en plus performantes ont pu voir le jour chez IBM, Intel et AMD. Pour l'instant, Sun refuse de commenter ces rumeurs, mais les observateurs du marché comme Gordon Haff, consultant IT principal chez Illuminata, les estime néanmoins tout à fait crédibles. « Les développements ont souffert des réductions de budgets (liées aussi à des pertes de parts de marché sur les serveurs) mais aussi de défauts identifiés au cours du processus de développement de la puce, » selon un analyste financier. Pour ne rien arranger, depuis plusieurs mois, le départ de plusieurs employés d'importance chez Sun a aussi affecté le projet Rock. Le vice-président exécutif de la micro-électronique, David Yen a rejoint Juniper Networks en 2008, et Marc Tremblay, le CTO de cette même division est désormais chez Microsoft. Enfin, sans pour autant avoir entraîné directement la décision, le rachat de Sun par Oracle pourrait bien avoir porté le coup fatal à Rock. Au moment de l'annonce de l'acquisition, en avril, le CEO Larry Ellison a signalé sa préférence pour Solaris et Java au sein de l'offre Sun. Il a plus tard relativisé en précisant son intention de rester dans le marché du matériel et d'augmenter les investissements sur Sparc. Pour les analystes, Oracle pourrait ainsi conserver certaines puces de la gamme comme les Niagara ou les Sparc64 dans le haut de gamme. (...)
(18/06/2009 14:57:32)Intel va revoir les marques de ses processeurs pour postes de travail
Intel va progressivement faire le ménage dans les marques de ses processeurs pour postes de travail (portable et desktop). A partir de l'an prochain, les noms de Core 2 (Duo, Quad) et de Centrino vont passer à la trappe. La marque Centrino survivra pour les modules de communication sans fil, qu'ils soient Wi-Fi ou Wimax, une technologie alternative à la 3G et à l'UMTS qu'Intel soutient très activement. Les successeurs des Core 2 et Centrino seront remplacés par des processeurs regroupés sous la marque Core i. Les actuels Core i7 (premiers quadricoeurs haut de gamme à architecture Nehalem lancés en novembre dernier) vont être rejoints par des Core i5 (milieu de gamme) et par des Core i3 (entrée de gamme). Ces lignes de produits ne feront plus directement référence à l'architecture des processeurs ni à leur usage en fonction de leur consommation. Ils seront classés selon leurs performances, un même processeur pouvant être référencé sous le nom de Core i3 ou de Core i5 selon sa fréquence. Autour de l'offre Core i, le fondeur conserve les marques Celeron, Pentium et Atom. La marque Celeron sera associée aux machines tout en bas de la gamme et celle de Pentium pour les PC un peu plus performants. Atom étant, de son côté, le nom des processeurs destinés aux netbooks et aux téléphones mobiles qu'Intel aimerait bien équiper en masse. (...)
(17/06/2009 16:47:12)Le marché des serveurs continue de s'effondrer mais l'embellie approche
Le marché des serveurs restera moribond jusqu'en 2011, estime IDC, mais le pire semble avoir été atteint. Si l'institut d'études a revu à la baisse ses prévisions pour le 2e trimestre 2009 et table sur un recul de 29,6% de la valeur de ce marché, il estime que le rythme de décroissance devrait ralentir dès le troisième trimestre. « Bien que nous prévoyions un recul de 22,1% pour 2009, le plus gros de la contraction du marché est derrière nous. En effet, d'ici à la fin du 3e trimestre (...) le marché montrera des signes importants de stabilisation. IDC croit que de nombreux utilisateurs commenceront à prendre des décisions stratégiques en ce qui concerne leurs plateformes informatiques avant la fin de 2009 pour anticiper l'activité de 2010 », indique le cabinet. La valeur du marché des serveurs, après une baisse de 22,1% en 2009, devrait céder encore 0,4% en 2010. Au total, il aura, selon IDC, enregistré huit trimestres consécutif dans le rouge. Il faudra attendre 2011 pour que sa valeur évolue à nouveau positivement : elle progressera de 2,9% par rapport à l'année précédente, avant de gagner 3,3% en 2012 et 3,1% en 2013. Tout au long de ces trimestres de disette, les serveurs haut de gamme seront les plus affectés : pour la seule année 2009, leurs ventes reculeront de 35% en valeur, contre une baisse inférieure à 10% pour le matériel de moyenne gamme. (...)
(16/06/2009 19:26:21)Bull propose un système HPC conçu pour la simulation
Le système HPC bullx annoncé aujourd'hui par Bull s'adresse à la clientèle bien particulière des entreprises friandes de simulation numérique. Ce type d'applications particulièrement complexe simule la réalité pour mieux la comprendre et est insatiable en ce qui concerne la puissance machine. Les utilisateurs potentiels sont aussi bien les industries automobile, l'aéronautique, l'exploration pétrolière, les finances, le nucléaire, les laboratoires scientifiques, la médecine, la climatologie, la défense, etc. La clientèle ne manque pas et son besoin en puissance est toujours croissant. « Un supercalculateur qui n'est pas utilisé aujourd'hui, ça n'existe pas, » insiste Fabio Gallo, responsable HPC de Bull. Après avoir examiné de près les besoins de ses clients, le constructeur français a opté pour des clusters Xeon 5500 qu'il a poussés dans leurs derniers retranchements. « Aucun compromis », selon Bull. Tous les moyens ont aussi été utilisés pour donner au système une performance énergétique optimale.
Bull a veillé aux exigences de ses clients HPC
Pour concevoir bullx en allant au-delà de la seule puissance, Bull a identifié une série de besoins auprès de ses clients. Pour commencer, ceux-ci veulent que le système soit capable d'une performance soutenue tout au long de l'exécution d'une application et pas uniquement d'une performance de crête, obtenue uniquement dans certaines conditions. Les entreprises sont aussi attachées à l'efficacité énergétique. Inutile de préciser que l'enveloppe énergétique d'un supercalculateur n'échappe pas à la forte croissance qui frappe toutes les infrastructures serveurs. De fait, pas question de gâcher le moindre watt.
Autre exigence des clients Bull dans le HPC, la protection de leur investissement. De telles infrastructures de supercalcul ne se changent pas tous les deux ans. Les technologies mises en place doivent donc être les plus avancées du moment. Les industriels et les laboratoires ont aussi interpellé le constructeur sur l'utilisation de technologies spécialisées pour l'accélération du calcul technico-scientifique. La performance des processeurs graphiques est ainsi désormais considérée comme intéressante d'autant qu'elle n'augmente que très peu la consommation électrique de l'ensemble du système. « Mais la facilité d'utilisation dans ces systèmes HPC n'était pas leur point fort, et nous devions travailler sur le sujet », précise Fabio Gallo. Enfin, tous les clients concernés ont exigé de Bull pour leur supercalculateur, la facilité d'installation, d'utilisation et de gestion, ainsi que la fiabilité.
Des lames purement Xeon 5500 et des lames avec GPU
« Nous avons donc tout simplement développé une nouvelle architecture, raconte Fabio Gallo. Elle est exclusivement conçue pour la simulation numérique, et de ce fait, elle est sans compromis. » Bull n'a pas souhaité faire de concession au supercalcul et à l'optimisation de la puissance pour garder une configuration qui pourrait servir à d'autres utilisations que la simulation. « Si on se frotte à l'optimisation de la performance, il faut une architecture idoine du système de mémoire, il faut utiliser le chipset le plus performant. A tout moment de la conception du système, nous avons gardé en tête la performance applicative et l'élimination de tous les goulets d'étranglement qu'elle implique. »
Les lames de bullx s'appuient sur l'architecture de processeur Xeon 5500 d'Intel (ex Nehalem). Mais Bull a donc choisi les puces les plus rapides de la gamme produites par Intel. « Nous avons aussi opté pour l'architecture mémoire la plus performante possible pour les noeuds, détaille Fabio Gallo. Nous installons des Xeon 5500 avec le nombre maximum de canaux de mémoire, c'est à dire 3 par processeur, et avec 2 barrettes par canal. » Mais l'innovation principale du système réside dans le mélange, dans les mêmes armoires, de lames traditionnelles contenant uniquement des Xeon 5500 avec des lames spécialisées intégrant à la fois le processeur d'Intel et un GPU (Graphical processor unit) Nvidia. « L'intégration des deux parties peut être le point qualifiant du système », insiste Fabio Gallo. Il s'agit en effet pour l'entreprise utilisatrice du système de trouver le bon point d'équilibre en fonction de ses applications. Les processeurs graphiques sont connectés via une interface PCI Express et l'architecture des lames est conçue pour que la bande passante entre les deux puces, standard et graphique, soit maximale. « Normalement, il n'y a qu'un chipset pour le serveur, et les deux processeurs bisockets utilisent le même, détaille Fabio Gallo. Pour nos lames spécialisées, nous utilisons deux chipsets pour que chaque processeur ait un accès dédié vers l'accélérateur. »
Le commutateur Infiniband directement dans le fond de panier
Comme toute médaille a son revers, ce type d'architecture totalement nouvelle implique pour être utilisé au mieux la mise au point de nouvelles applications spécifiques ou le portage des anciennes. « Sur les lames accélérées, nous travaillons depuis un an au portage et à l'optimisation des applications avec nos clients, confirme Fabio Gallo. Pour certaines applications bien structurées, nous pouvons obtenir un facteur d'accélération de 10. Il faut identifier les parties de code qui se prêtent à ce type d'accélération, ensuite il faut procéder à leur portage et à leur compilation avec des méthodes légèrement différentes sur l'accélérateur. »
[[page]]
Bull propose un système HPC conçu pour la simulation
Page précédente : 1/2
Le choix des processeurs n'est pas la seule amélioration du système. Ainsi, le commutateur Infiniband est-il intégré directement dans le fond de panier et non pas installé en tant qu'élément isolé. Un moyen évident d'économiser de l'espace et de limiter le câblage, mais pas seulement. Les performances devraient là encore être au rendez-vous, et également améliorées. Pour commencer, la distance entre le commutateur et les serveurs est réduite. « Les réseaux très haut débit sont aussi très sensibles au rayon de courbure des câbles, rappelle Fabio Gallo. Si une intervention doit avoir lieu sur le système, leur manipulation peut avoir un impact sur la fiabilité. » Le réseau Infiniband est utilisé en mode QDR (Quad Data Rate), le plus performant actuellement disponible.
La suite d'administration s'appuie sur des briques libres
Enfin, avec un système aussi complexe, une suite d'administration s'imposait. Bull en a mis une au point qui s'appuie en majorité sur des composants libres. Cet outil réduit la complexité du cluster en proposant un point de contrôle unique pour le matériel. La base d'inventaire Cluster DB recense tous les composants du cluster et identifie précisément, en cas de problème, quel câble ou quelle barrette mémoire sont concernés.
Au final, chaque châssis (7U) contenant 18 lames bullx peut atteindre près de 1,7 Tflops. Dans chaque châssis, on compte une rangée de 8 lames et une rangée de 10 dont les commutateurs, les écrans, les ventilateurs. « Le nombre de 18 n'a pas été choisi au hasard, précise d'ailleurs Fabrice Gallo. Le commutateur Infiniband QDR dispose de 36 ports, soit 18 entrées et 18 sorties. » Là encore, il s'git d'optimiser. Chaque armoire (42U) peut accueillir jusqu'à 6 châssis et représentera une puissance totale d'environ 10 Tflops.
Une porte de refroidissement à l'eau
Economie et écologie obligent, de telles configurations, aussi puissantes, ne se conçoivent plus sans optimiser la consommation électrique et la gestion thermique. Pour limiter à la fois la dissipation de chaleur et éviter les systèmes de climatisation chers et consommateurs d'énergie, Bull, comme IBM l'a déjà fait, remet au goût du jour les systèmes de refroidissement à eau. Il installe des portes à eau à l'arrière des armoires (qui consomment jusqu'à 40 kW). La chaleur est absorbée par ces portes et est transmise par un fluide. Ces cloisons intègrent par ailleurs des capteurs et des systèmes de contrôle qui permettent aux ventilateurs de marcher ou pas. Ce sont eux qui renvoient l'air dans la salle à la même température que lorsqu'il est entré. Les ventilateurs servent à garantir que le flux d'air ne soit pas interrompu. Selon le constructeur français, ces éléments installés directement sur les systèmes sont, par essence, bien plus ciblés que le refroidissement complet de la salle qui héberge l'infrastructure. Un ciblage qui se traduirait par une efficacité accrue de près de 75% et une économie d'énergie augmentée d'autant. Par ailleurs, le système devrait pouvoir supporter une température de ... 35°C. L'absence de panne reste à prouver, dans ce cas.
Survivre à des 'burn out'
Des dispositifs intégrés permettent aussi aux lames de survivre à des 'burn out' ce qui évite de faire appel à des onduleurs, appareils qui introduisent selon Bull entre 10 et 20% de perte de la puissance électrique. Les 'burn out' sont des interruptions d'alimentation de quelques fractions de secondes qui sont à l'origine des pannes non prévues les plus fréquentes des systèmes. Le dispositif qui pallie ce problème est un condensateur avec un système de contrôle qui intervient en cas de microcoupure. Les noeuds de calcul qui représentent 90% de la puissance électrique consommée par la configuration continuent de fonctionner, même sans onduleur. Seuls les noeuds destinés à l'administration restent équipés d'onduleurs, mais leur consommation représente un faible pourcentage.
Pour ce qui est du prix, les estimations sont toujours particulièrement difficiles avec ce style de configurations modulaires et haut de gamme. « Sur des systèmes départementaux, modestes, on peut démarrer en dessous de 100 000 euros, et pour les plus grands systèmes, on atteindra plusieurs dizaines de millions d'euros », précise néanmoins Fabio Gallo... Le premier client bullx est l'Université de Cologne en Allemagne. (...)
Les sept conseils du Gartner pour réduire les coûts des datacenters
"Supprimer un seul serveur x86 permet d'économiser 400 dollars juste en frais d'électricité" explique Rakesh Kumar, vice president du Gartner Group. Très dans l'air du temps, le cabinet de consultants indique sept pistes pour réduire les coûts des datacenters dans des délais de 12 à 18 mois. Ces idées se déclinent ainsi : rationaliser les équipements, consolider les sites, gérer les coûts électriques, renégocier les contrats, optimiser les ressources humaines et la politique d'équipement et, enfin, virtualiser. Rationaliser les équipements peut paraître une évidence, mais le Gartner souligne que cet effort a aussi des répercussions positives sur la gestion d'inventaire, l'optimisation des contrats de licences et la réduction de la consommation électrique. Le cabinet met en avant une économie de 5 à 10% sur les coûts d'équipements. Dans sa liste de conseils, le Gartner évoque aussi le rallongement des durées d'amortissement des matériels, tout en rappelant que les coûts de maintenance peuvent grimper avec l'âge de ces derniers. Mieux vaut trouver le bon équilibre. Au niveau des datacenters cette fois, et non plus uniquement des serveurs, une démarche de rationalisation se traduira par la consolidation des sites. Cette opération peut déboucher sur une réduction de 5 à 15% du budget informatique total. Dans ce cas, les économies portent sur les loyers des bâtiments, mais aussi sur la disparition de ressources redondantes, qu'elles soient matérielles ou humaines. En ces temps de pénurie de compétences, le Gartner tiens néanmoins à préciser qu'il faut réfléchir à deux fois avant de décider une réduction des effectifs. La consolidation de datacenters permet par ailleurs de réduire le nombre de licences, de contrats de support et de diminuer le plan de reprise d'activité. La virtualisation fait bien évidemment partie des démarches préconisées par le Gartner. Elle est en particulier le meilleurs moyen pour consolider des datacenters et cristallise nombre de réductions de coûts énumérées par le cabinet de consultants. Sachant qu'elle réclame un important effort d'administration et une attention particulière pour la gestion des licences logicielles. Néanmoins, elle permet, en réduisant le nombre de serveurs, d'atteindre un gain net dès 24 mois, sans parler d'économies d'énergie pouvant aller jusqu'à 82% et de surface allant jusqu'à 86%. La concentration des serveurs, en particulier avec les lames, se traduit par ailleurs aussi par une consommation électrique au mètre carré en forte hausse et, en corollaire, par des besoins de climatisation supérieurs. Le Gartner, comme de nombreux constructeurs, conseille de laisser la température dans les salles machines à 24 degrés. A ce niveau, il rappelle aussi certaines techniques de climatisation à faible -voire très faible- coût : l'air ambiant, l'organisation des rangées de serveurs suivant des paramètres thermiques et, l'utilisation de serveurs de nouvelle génération, dont il est possible de contrôler l'activité. La Gartner n'oublie évidemment pas dans sa liste de conseils la renégociation de contrats avec les fournisseurs. De même, il évoque inévitablement les coûts de personnel. Pouvant atteindre 40% du budget IT, ils s'exposent aussi à des arbitrages parmi lesquels l'appel à des emplois délocalisés figure en bonne place. (...)
(15/06/2009 17:18:00)HP propose des serveurs légers et modulaires pour les grands datacenters
HP annonce sa gamme de systèmes ExSO (Extreme Scale-Out) destinée aux activités du cloud, du web 2.0 et du calcul haute performance. Celle-ci s'adresse à des entreprises aux configurations de datacenters ambitieuses qui comptent jusqu'à 100 000 serveurs, dans les domaines des moteurs de recherche, du jeu en ligne, de l'animation ou des services financiers, par exemple. "Les clients ayant ce type de modèles économiques ont besoin de solutions avec lesquelles chaque dollar, chaque watt et chaque m2 comptent, insiste Stephen Bovis, vice-président et directeur general pour les serveurs standards de la division TSG (Technology solutions group) pour HP Asie Pacifique et Japon. Avec ExSO, HP leur propose l'innovation la plus significative depuis le format lame. » Pour répondre aux besoins de ces sociétés, HP s'appuie en effet avec ExSO sur un matériel léger et plus modulaire installé dans des tiroirs et sur des rails. Selon le constructeur, cette architecture devrait réduire de 10% les coûts d'acquisition et de 28% la consommation électrique, tout en doublant la densité de puissance machine. Ainsi, un datacenter d'environ 9 300 m2 peut économiser plus de 152,8 millions de dollars sur les dépenses en capital et 13,7 M$ sur la consommation énergétique. Au coeur du package, se trouve la famille de serveurs ProLiant SL de HP dont l'architecture est conçue spécifiquement pour des environnements à très grande échelle. Une alimentation et un système de refroidissement améliorés, ainsi qu'une circulation de l'air optimisée, leur permet de consommer 28% d'énergie en moins par rapport à des serveurs en rack traditionnels. Leur poids est également inférieur d'un tiers à ces systèmes parce qu'ils contiennent moins de métal. Enfin, ces serveurs sont placés dans des tiroirs amovibles qui permettent une installation rapide et modulaire. La densité des configurations en est ainsi accrue puisqu'un rack 42U intègre jusqu'à 672 processeurs et 10 To de disques. (...)
(15/06/2009 16:59:31)Les grandes infrastructures de recherche au service d'une science pluridisciplinaire
« Parfois, on fait avancer la recherche pure et on trouve des applications sociétales évidentes », a réaffirmé Catherine Cesarsky, haut-commissaire à l'énergie atomique, en clôture du salon européen de la recherche et de l'innovation (Seri) qui s'est tenu à Paris du 3 au 5 juin dernier. A ses côtés, pour illustrer la façon dont « les grandes infrastructures de recherche sont à l'écoute des enjeux d'aujourd'hui pour répondre aux besoins de demain », Jean Audouze, président du comité d'organisation scientifique du Seri, avait également réuni Dany Vandromme, directeur du GIP Renater, et Robert Aymar, conseiller de l'administrateur général du CEA et ancien directeur général du Cern. Rendre les données accessibles aux chercheurs du monde entier Question concrète, les intervenants se sont interrogés sur la meilleure façon de rendre accessibles aux chercheurs, les données recueillies dans ces grandes infrastructures. Le réseau national de communication Renater permet à un millier d'établissements de communiquer entre eux et d'accéder aux centres de recherche du monde entier. Le réseau Geant de son côté, assure la même fonction au niveau européen. Directeur de Renater, Dany Vandromme est également responsable des grandes infrastructures à la direction de la recherche et de l'innovation du ministère de la recherche. A ce titre, il s'intéresse à leur mise en réseau. Dans le cadre du projet LHC, par exemple, « le Cern ne pouvait pas être le lieu pour stocker les données recueillies, beaucoup trop volumineuses ». Cela aurait été trop coûteux pour le centre de recherche installé dans la région de Genève. [cf « L'informatique monumentale derrière l'accélérateur de particules du CERN » : pour gérer les 15 millions de milliards d'octets qui sortiront chaque année des essais du LHC, l'infrastructure serveur compte trois niveaux : le premier se situe au Cern, le deuxième s'appuie sur onze centres informatiques dans le monde et le troisième sur une centaine d'autres centres distribués.] « Ces informations sont diffusées dans les centres de physique distribués dans le monde entier, indique Dany Vandromme. Un autre système consiste à organiser une prise de données distribuées vers un point central corrélateur puis de redistribuer les données, mais cela ne tient plus la route car la concentration est trop forte. On pense maintenant à des centre de corrélation eux-mêmes distribués dans le monde entier. » Dany Vandromme rappelle que les infrastructures de recherche ne sont plus aujourd'hui ciblées sur quelques disciplines historiques. La science est de plus en plus pluridisciplinaire. « Toutes les communautés scientifiques ont besoin de cette mise en commun des moyens. Ces infrastructures distribuées, c'est un vrai progrès que l'on est en train de réaliser. » Et Robert Aymar de conclure que ces infrastructures ne pourront plus êtres limitées à des périmètres nationaux : « Ces réseaux amènent à un concept d'ouverture en matière de nationalités et de disciplines. » Il faut que les jugements de la société deviennent plus scientifiques [[page]] « Les logiciels utilisés pour l'astronomie ont des applications dans la médecine », a par exemple cité Catherine Cesarsky en soulignant que le CEA travaillait depuis 30 ans sur l'imagerie cérébrale. « Il faut repousser à l'extrême les limites de l'imagerie, augmenter le champ magnétique de l'imageur... ». D'où l'intérêt dans ces domaines d'échanger des techniques avec des grands laboratoires de recherche comme le Ganil en Basse-Normandie, ou le Cern en Suisse, qui disposent d'accélérateurs de particules, en particulier à Genève, le LHC (Large Hadron Collider). Les participants à la table ronde de clôture du Seri ont également évoqué la façon dont la société est impliquée dans ces grandes infrastructures de recherche « où l'on trouve une variété d'instruments tous plus futuristes les uns que les autres », a rappelé Jean Audouze. Pour Robert Aymar, qui dirigea le projet ITER, réacteur thermonucléaire expérimental international, « les implications des grandes infrastructures de recherche dépassent la science car elles deviennent politiques. Nos gouvernements ont décrété que l'économie européenne serait basée sur la connaissance. Cela réjouit les scientifiques qui peuvent suivre des stratégies répondant aux besoins de la société, avec par exemple de nouvelles sources d'énergie de type ITER. » Ces scientifiques ont une responsabilité vis-à-vis de leurs égaux, estime l'ancien directeur du Cern. « Il faut que la société et ses jugements deviennent plus scientifiques. Il faut expliciter pourquoi des grandes infrastructures sont nécessaires à la science ». Il rappelle que les retombées de ces recherches ont pour objectif d'améliorer la compétitivité des économies. Robert Aymar juge aussi que ces infrastructures ont un rôle dans la cohésion européenne : « Les pays qui rejoignent l'Union européenne ont toujours fait un séjour au Cern pour comprendre les enjeux. Ces grandes infrastructures sont aussi un lien avec la connaissance mondiale. » Des choix politiques pour préparer l'avenir De son côté, Dany Vandromme, directeur du réseau Renater, tient à remettre en mémoire que la mise en place et les programmes menés dans ces infrastructures se déroulent sur des échelles temps très longues. Pour ITER, il renvoie d'ici quinze à vingt ans. Pour le système énergétique basé sur la fusion nucléaire, il s'agit plutôt d'une petite centaine d'années. « Il y a néanmoins des choix politiques à faire aujourd'hui pour préparer l'avenir », reconnaît-il. Ce que confirme Robert Aymar : « Pour un accélérateur comme le LHC, le délai est très long entre les discussions, la décision d'engager les dépenses et l'exploitation elle-même. C'est pourquoi ces grands investissements posent un problème fondamental : comment limiter le risque pour que ce soit un succès. » (...)
(15/06/2009 16:30:07)Un banc d'essai Spec pour mesurer la consommation des serveurs Web
L'association professionnelle Spec (Standard Performance Evaluation Corporation), annonce la mise au point du banc test SPECweb2009. Son protocole permet de mesurer à la fois les performances des serveurs utilisés dans le cadre d'applications Web mais aussi leur consommation, ce que le test précédent, SPECweb2005, ne prenait pas en compte. SPECweb2009 simule la charge d'un serveur Web délivrant des pages JSP ou PHP avec trois applications différentes : une application bancaire totalement cryptée avec SSL, une de commerce en ligne partiellement cryptée et un site de support sans cryptage, mais avec une forte demande de téléchargements. Ce banc d'essai permet de constater que la consommation électrique n'est pas la même suivant les applications sollicitées. De plus, le protocole prévoit des variations de charge, du mode "idle" à 100% des ressources, pour mesurer la consommation électrique. Pour l'instant, seuls deux serveurs à base de Xeon dernière génération et faisant tourner des applications Web JSP ont été testés. (...)
(12/06/2009 18:10:19)Le gourou de la sécurité Chris Hoff devient directeur de la virtualisation et du cloud computing chez Cisco
Christopher Hoff arrive chez Cisco avec le titre de directeur de la virtualisation et du cloud computing au sein de l'équipe datacenter solution de l'équipementier réseau en pleine phase d'évangélisation pour son offre UCS. Auparavant Architecte en chef sécurité pour la division systèmes et technologie d'Unisys, ce spécialise unanimement reconnu porte un regard lucide sur l'insécurité qu'engendre la virtualisation et l'informatique en cloud. L'hiver denier, il soulignait pour notre confrère CSO quelques points cruciaux dans un monde qui aborde une mutation profonde sans, le plus souvent, en évoquer la complexité des implications. Il insistait en particulier sur les points suivants : pour parvenir à une meilleure sécurité au travers de la virtualisation, il faut commencer par sécuriser la virtualisation elle-même avant de s'attaquer à virtualiser la sécurité. Un programme qui fait appel à toutes les compétences présentes autour d'un datacenter dont l'architecture doit être entièrement revue. Pour lui, le paroxysme du décalage entre les concepts qui chantent et la dure réalité est atteint lorsque l'on parle d'informatique en cloud. On ne pourra pas reprocher à Christopher Hoff de ne pas affronter cette réalité, lui qui était déjà un des membres fondateurs de la Cloud Security Alliance et qui occupe désormais un poste en première ligne face aux problèmes qu'il dénonce. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |