Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1501 à 1510.

< Les 10 documents précédentsLes 10 documents suivants >


(10/02/2009 18:00:33)

IBM donne une division à Blue Cloud

Le cloud computing d'IBM qu'il nomme Blue Cloud prend corps au travers d'une nouvelle division. Annoncé en novembre 2007, il atteint sa phase opérationnelle en ce début d'année. L'infrastructure, qui repose, pour l'instant (*), sur neuf datacenters, les Cloud Labs, dont un site européen installé à Dublin depuis mars 2008, propose des ressources aux entreprises qui aspirent à équilibrer leurs charges de traitement entre leur propre cloud et celui d'IBM. IBM baptise ce concept "hybrid cloud". Un accès "transparent" est garanti par un maillage réseau qui reposera sur des équipements réseau de Juniper Networks et des composants logiciels ajoutés à Tivoli. L'objectif est de permettre la répartition des tâches afin d'optimiser les ressources et la qualité de services. L'annonce d'IBM mélange allègrement les produits disponibles et ceux qui le seront seulement ultérieurement. A terme, la logithèque de Blue Cloud s'organisera autour de la console Service Management Center for Cloud Computing. Elle repose sur Tivoli Provisionning Manager 7.1 et Tivoli Service Automation Manager. L'ensemble automatise le déploiement et l'administration d'une infrastructure en cloud computing. IBM revendique cinq clients dont Elizabeth Arden [[page]] Avec IBM Rational AppScan 7.8, les clients pourront s'assurer de la sécurité et de la conformité aux contraintes légales des services web mis en cloud. Rational AppScan OnDemand assure quant à lui la surveillance de ces services. Tivoli Storage as a Service est une prestation qui assure le suivi de la sauvegarde et sa facturation au volume. Enfin, IBM Design and implementation for cloud test environments doit faire gagner 20% du temps nécessaire aux utilisateurs pour déployer une plateforme cloud de test sur leur propre infrastructure. IBM revendique avoir rallié cinq clients à son offre Blue Cloud dont le plus connu est le groupe cosmétique Elizabeth Arden. Ce train d'annonces intervient au moment ou IBM crée sa division dédiée à Blue Cloud. Il place à sa tête Erich Clementi avec le titre de General Manager for Enterprise Initiatives. Cet italien, qui a rejoint IBM en 1984, prend en charge l'avenir d'une division qui se positionne sur un marché en très forte croissance. IDC, qui estimait le marché du cloud computing à 16 Md$ l'an dernier, le voit atteindre 42 Md$ en 2012. (*) En septembre 2008, IBM annonçait son projet de porter à treize le nombre de ses Blue Labs en en ouvrant quatre autres dans des pays émergents : Corée du Sud, Vietnam, Inde et Brésil. (...)

(06/02/2009 17:01:55)

Le Green Grid veut mesurer la consommation des datacenters tous les quarts d'heure

A l'occasion de la deuxième édition de la conférence annuelle Green Grid Technical Forum, qui s'est tenue cette semaine à San Jose en Californie, l'association professionnelle propose une série de "white papers" mis à jour avec les dernière améliorations apportées à deux systèmes de mesure : le PUE (power usage effectiveness) et le DCiE (data center infrastructure efficiency). Ils préconisent désormais une mesure toutes les quinze minutes de la consommation électrique totale pour, ensuite, améliorer l'adaptabilité (scalability) énergétique des datacenters. Regroupés depuis 2007 au sein de l'association professionnelle The Green Grid, des fournisseurs comme HP, Dell, AMD et d'autres continuent de faire avancer leurs réflexions et leurs propositions pour réduire la consommation électrique des datacenters. (...)

(06/02/2009 11:08:44)

LMI invite ses lecteurs pour un petit-déjeuner

Afin de toujours mieux satisfaire ses lecteurs, LeMondeInformatique.fr vous invite une nouvelle fois à rencontrer la rédaction lors d'un petit-déjeuner informel, afin d'échanger sur vos besoins et votre appréciation sur le contenu et la présentation de votre site d'information. Le café et les croissants vous seront servis le 26 février, de 8h30 à 10h, dans nos locaux du 6/8 rue Jean Jaurès à Puteaux, à 5 minutes à pied du métro Esplanade de la Défense. En dehors de cette rencontre avec la rédaction, parce que vous participez aussi au monde de l'IT, nous vous invitons à vous exprimer au travers des commentaires d'articles sur le Forum, sur nos blogs Green IT et Ingénierie logicielle, ou encore sur le blog Experts. Pour plus de renseignements et pour vous inscrire, écrivez-nous : redac_weblmi@it-news-info.com (...)

(05/02/2009 15:12:34)

Gartner : les entreprises doivent se préparer au retard du logiciel sur le matériel dans les serveurs

Le Gartner s'inquiète. Les serveurs évoluent beaucoup trop rapidement pour le logiciel. Les puces comptent un nombre de plus en plus important de coeurs. Qui plus est, ces coeurs gèrent souvent chacun plusieurs threads (instructions élémentaires). Dans le monde du x86, de deux coeurs, on est passé à quatre, et on annonce bientôt huit. Or, le multicoeur n'est pas forcément synonyme de performances améliorées, au contraire ! Car les logiciels restent à la traîne. Très à la traîne. Systèmes d'exploitation, hyperviseurs, middlewares et applications sont loin de tirer parti de toute la puissance proposée par les serveurs multicoeurs. Deux coeurs dans un processeur ne donnent pas deux fois plus de puissance. Pire encore... Carl Claunch, analyste pour le Gartner, spécialiste des infrastructures serveurs, prévient : dès qu'on dépasse deux coeurs, on peut très bien voir la performance décroître ! Le surplus de travail imposé au système par la gestion de quatre coeurs, par exemple, peut induire un tel phénomène. L'analyste estime qu'un nombre significatif d'entreprise est déjà touché et qu'il ne va cesser d'augmenter. Les hyperviseurs sont de toute façon limités à quelques dizaines de coeurs Dans deux ans, selon Carl Claunch, on devrait déjà voir apparaître des serveurs équipés de 512 coeurs au total (32 sockets hébergeant chacun 16 coeurs). Dans quatre ans, ils en accueilleront le double... Or, l'analyste rappelle que la plupart des hyperviseurs ne peuvent dépasser 64 puces. Selon lui, ESX de VMware se limite à 32 coeurs et Hyper-V de Microsoft à 24. Du coté des OS, si Linux et Windows ne dépassent pas 64 coeurs à base de x86, z/OS atteint tout juste 64 et les Unix, moins limités, supportent entre 128 et 512 puces suivant l'éditeur. Pour adapter un logiciel à une configuration multicoeur, il ne suffit pas, comme on pourrait le croire, de découper le code en plusieurs parties pour le répartir sur les puces. « Diviser le logiciel en deux ou en quatre morceaux, n'est pas très compliqué, confirme Carl Claunch. Mais quand on passe à 128 ou 256 coeurs, c'est une autre question. » D'autant que, comme le précise l'analyste, il faut aussi équilibrer ces 'morceaux' de code pour qu'ils se répartissent judicieusement sur les coeurs du processeur. Le principe même de la parallélisation, du multithreading, de la répartition de tâches... L'industrie fait des efforts pour faciliter le portage des applicatifs [[page]] Bien sûr, l'industrie informatique, celle du matériel comme celle du logiciel, travaille dur pour sortir de ce qui ressemble fort à une impasse. Ainsi, Intel et Microsoft ont tous deux rendu disponible un ensemble d'outils facilitant le travail des développeurs. « Il faut dire qu'aucun fournisseur n'a intérêt à voir réduire le taux de renouvellement des machines en entreprise ! » rappelle Carl Claunch. Les utilisateurs pourraient en effet décider de ne pas changer de matériels, pour éviter les problèmes. Les laboratoires de recherche universitaire se penchent eux aussi sur ces questions de portage. Tous s'appuient aussi, bien entendu, sur les travaux réalisés durant des décennies par le monde du HPC (calcul haute performance), même s'ils ont été menés dans des contextes très différents. « Pour l'instant, persiste cependant Carl Claunch, il n'existe pas de solution unique et simple au développement de logiciel parallélisé. » Les entreprises doivent se préparer à une migration permanente des logiciels En résumé, il faudra des mois, voire des années, pour que le logiciel rattrape son retard sur le matériel. D'autant que les constructeurs ne vont pas stopper les évolutions de leurs serveurs pour attendre le logiciel. C'est pourquoi Carl Claunch conseille aux entreprises utilisatrices de se préparer à entrer dans une période de migration permanente de leurs logiciels. « Elles ne pourront plus stabiliser les installations durant 5 ou 6 ans comme avant. » « Les entreprises étaient habituées à migrer des versions de logiciel inchangées d'une infrastructure vers une autre. Ce ne sera plus possible. En conséquence, le cycle de vie du logiciel sera de plus en plus court. » Les utilisateurs devront investir davantage de budget dans les nouvelles versions et se doter de ressources plus importantes pour la maintenance. En ces temps de crise, ce genre de conseils risque de ne pas être très bien accueilli. « Pourtant aujourd'hui, il n'y a pas beaucoup d'autre solution, note cependant Carl Claunch. Quand un éditeur sort un système d'exploitation serveur, celui-ci va durer près de dix ans. Et il devra donc s'adapter à toutes les infrastructures qui sortiront durant cette période. Il faudrait que le fournisseur écrive son OS en anticipant ces machines, y compris celles dont on ne connaît absolument rien aujourd'hui... Impossible. » (...)

(05/02/2009 14:07:01)

Intel diffère de six mois l'arrivée de l'Itanium quadri-coeur

Intel décale de six mois le lancement de Tukwila, son premier processeur Itanium quadri-coeur. Annoncé il y a un an presque jour pour jour, ce premier Itanium gravé en 65 nm contiendra un record de 2 milliards de transistors, dont une bonne part pour embarquer 30 Mo de mémoire cache. Intel explique ce report par le temps qu'il lui faut pour ajouter la gestion des mémoires DDR3 et par, semble-t-il, le retard pris dans la mise au point d'un socket qui facilitera la transition vers les prochaines générations d'Itanium (Poulson et Kittson). HP est le principal client d'Intel pour l'Itanium. Il anime ses serveurs Integrity sous HP-UX et Windows Server, concurrent des Power d'IBM et des serveurs Sun. (...)

(04/02/2009 17:40:39)

Dell choisit Xsigo pour virtualiser les entrées/sorties

Dell va commercialiser la technologie de virtualisation des entrées/sorties de Xsigo, un spécialiste du domaine depuis 2007, avec ses serveurs PowerEdge et des baies de stockage PowerVault et EqualLogic. En commercialisant l'appliance en rack Xsigo VP780 I/O Director, Dell fait plus que combler son retard vis-à-vis de HP et d'IBM. Ces deux-là ont, chacun, leur propre technologie de virtualisation des I/O pour leurs serveurs lames : VirtualConnect I/O sur les BladeSystem de HP et Open Fabric Manager sur les BladeCenter d'IBM. La semaine dernière, Blade Network Technologies (BNT), essaimage de Nortel, a annoncé VMready, technologie pour virtualiser l'accès à ses routeurs en rack. Méconnu, BNT fournit pourtant IBM et HP. Vendu 30 000 $, le Xsigo VP780 accepte 24 ports en provenance de serveurs interfacés en Infiniband, et peut recevoir jusqu'à 15 modules d'I/O, chacun avec quatre ports gigabit Ethernet iSCSI, un 10 gigabit iSCSI et deux ports FC 4 Gbits. Dell fait miroiter des économies de l'ordre de 50% sur trois ans en remplaçant les équipements d'I/O physiques par la solution de virtualisation de Xsigo. Xsigo, qu'aucun accord d'exclusivité ne lie avec Dell, a déjà signé un accord similaire avec Verari, spécialiste des serveurs lames, en octobre dernier. A voir tous ces fabricants de serveurs s'intéresser de très près aux commutateurs d'entrées/sorties de leurs machines, Cisco fait donc bien de préparer son arrivée sur le marché des serveurs. (...)

(04/02/2009 12:56:15)

Le plan de relance du gouvernement inclut les grands centres de calcul

Le premier ministre François Fillon a présenté le 2 février à Lyon les 1 000 projets qui bénéficieront du plan de relance de l'économie annoncé en décembre dernier par Nicolas Sarkozy, président de la République Française. Les TIC ne sont pas directement impliquées, en dehors du financement de très grandes infrastructures de recherche (TGIR) et du soutien aux PME innovantes. Sur les 26 Md€ de crédits prévus, 4 Md€ sont destinés à un programme exceptionnel d'investissement public. 1,1% de cette enveloppe, soit 46 M€, sera consacré au financement de très grandes infrastructures de recherche. 1,75% (70 M€) viendra par ailleurs soutenir l'investissement dans les nanotechnologies. Ces financements représentent tout juste 0,18% et 0,27% du total de 26 Md€ de crédits prévus. Des crédits pour le Ganil et le Genci Ainsi, en Basse-Normandie, le Ganil (Grand accélérateur national d'ions lourds) bénéficiera d'un crédit de 4 M€. En Ile-de-France, le financement de TGIR totalise 27,3 M€. Parmi les opérations retenues figurent le Genci -grand équipement national de calcul intensif (2,6 M€), LLB-Orphee -spectromètre à neutrons (1,8 M€), Soleil -rayonnement synchrotron (6 M€), Renater -réseau national de télécommunication scientifique (1 M€), le CCRT et IDRIS -centres de calcul intensif (2 M€ et 1 M€), ou encore Neurospin -neuro-imagerie cérébrale (2 M€). Dans la région PACA (Provence-Alpes-Côtes d'Azur), le plan de relance a retenu l'ITER -installation expérimentale de fusion. Le crédit accordé s'élève à 5 M€. Et en Rhône-Alpes, 4 M€ sont répartis entre l'ESRF -rayonnement synchrotron (1,8 M€) et le centre de calcul intensif IN2P3 (2,2 M€). Dans la liste des opérations retenues figurent aussi Adonis -réseau numérisé de données SHS (1 M€). La capacité d'intervention d'Oseo Garantie étendue à 4 Md€ de plus [[page]] Le plan de relance prévoit aussi un soutien exceptionnel à l'activité économique et à l'emploi qui inclut des actions pour aider les PME et TPE. Ces mesures, qui ont été en partie détaillées le 4 décembre dernier prévoient 700 M€ d'aide à l'embauche dans les très petites entreprises. Parmi les autres apports du plan en faveur des PME innovantes, l'établissement public Oseo voit sa capacité d'intervention augmentée. Il peut garantir 4 Md€ de prêts supplémentaires, en plus des 5 Md€ qu'il pouvait déjà garantir ou réaliser depuis l'annonce, début octobre, du déblocage de 22 Md€ en faveur du financement des PME. Rappelons que les 17 Md€ restant proviennent des livrets de développement durable et d'épargne populaire et qu'un médiateur, René Ricol, a été nommé afin de s'assurer que ces crédits iraient effectivement aux PME et TPE. C'est vers lui que peut se tourner tout chef d'entreprise ou entrepreneur individuel qui rencontrerait des difficultés de financement auprès de sa banque. Un site Web propose des dossiers types pour faciliter les demandes de médiation : www.mediateurducredit.fr Paiement à 60 jours fin de mois depuis le 1er janvier 11,4 Md€ seront remboursés aux entreprises, pour « desserrer les contraintes pesant sur leur trésorerie, dans le cadre des dispositions prises par la loi de finances rectificative pour 2008 » et 11,1 Md€ passeront par des interventions directes de l'Etat comme le remboursement des créances au titre du crédit d'impôt recherche ou encore la mensualisation du remboursement des crédits de TVA. Rappelons par ailleurs que, depuis le 1er janvier, la loi prévoit que toute facture émise en France soit réglée sous 60 jours, et non plus 60 jours « fin de mois ». (...)

(03/02/2009 18:20:07)

Le gouvernement américain commande un supercalculateur de 20 Pflops à IBM

Le gouvernement américain aurait commandé à IBM pour le DOE (Département de l'énergie) un supercalculateur d'une puissance de 20 Pflops (20 milliards de millions d'instructions par seconde) avec 1,6 millions de coeurs. Sequoia, c'est son nom, hébergera sur une surface un peu plus importante que celle d'un terrain de tennis, 96 racks équipés des Bluegene/Q du constructeur, encore en cours de développement, et tournera sous Linux. Ces modules spécialisés dans le supercalcul s'appuient sur l'architecture de processeur Power d'IBM. La machine sera installée au Laboratoire national Lawrence Livermore en Californie à partir de 2011 et mise en route l'année suivante. Elle servira en priorité à gérer les stocks d'armes nucléaires vieillissantes dont elle simulera la stabilité et le niveau de sécurité. Une consommation électrique seulement trois fois supérieure à celle de son prédécesseur Pour IBM, les défis d'une telle infrastructure résident entre autres dans la gestion des sous-systèmes d'administration destinés à automatiser les tâches et dans la fourniture aux administrateurs de moyens adaptés au suivi de l'imposante charge de calcul. Enfin, Sequoia devrait se contenter de 6 megawatts contre 1,8 pour le système actuel du laboratoire. Avant de passer à Sequoia, IBM fournira un autre supercalculateur au laboratoire californien du gouvernement. Plus modeste, Dawn sera bâti sur la même architecture BlueGene/P et atteindra 500 Tflops. Il servira de base de travail pour l'élaboration de son successeur. Avant Dawn et Sequoia, le calculateur BlueGene le plus puissant, déjà propriété du Lawrence Livermore, affichait une puissance de 478,2 teraflops. Roadrunner, le système le plus imposant du monde avec 1,1 Pflops, est quant à lui un produit hybride mixant les architectures Cell conçues entre autres par IBM avec des Opteron d'AMD. Le DOE a préféré Bluegene à cette option pour des questions de portage d'applications. (...)

(03/02/2009 12:00:58)

Etude : le cloud computing reste une énigme pour les PME anglo-saxonnes

Les PME anglo-saxonnes appréhendent encore mal ce que recouvre le cloud computing. C'est ce qu'indique une enquête menée auprès de 1 500 petites et moyennes entreprises britanniques et américaines entre mi-octobre et mi-novembre par le cabinet d'études Vanson Bourne, pour le compte de l'hébergeur Rackspace Hosting. Ce dernier s'inquiète de constater que 57% des PME britanniques et 58% des PME américaines ne connaissent tout simplement pas le terme cloud computing qui désigne l'accès à une infrastructure et à des services informatiques hébergés. Selon les résultats de l'enquête, cette expression relève de l'énigme et, à ce stade, semble semer la confusion plus qu'elle ne promeut le concept. La désignation 'cloud computing' est pourtant de plus en plus fréquemment employée par les plus grands fournisseurs d'infrastructures. Parmi ses principaux zélateurs, on trouve ainsi IBM, Microsoft, Google et Amazon, ou encore Sun, HP, Dell, Intel, EMC, VMware, Citrix et Yahoo. Des définitions variées pour un même concept Les réponses des PME sondées sont néanmoins modulées. 43% des entreprises britanniques interrogées définissent le cloud comme un ensemble de serveurs distants auxquels on accède par Internet. C'est également cette définition qui recueille le plus de suffrages aux Etats-Unis, avec 29% des réponses. 31% des Britanniques pensent que l'hébergement au sein d'un cloud correspond à des applications accessibles sur Internet, 14% pensent qu'il s'agit de virtualisation et 8% de stockage en ligne. Les réponses sont équivalentes aux Etats-Unis. Toutefois, 27% des sondés britanniques ne savent pas comment ils vont utiliser le cloud parallèlement à leurs autres applications IT. Il en va de même pour un tiers des PME américaines. (...)

< Les 10 documents précédentsLes 10 documents suivants >