Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 2011 à 2020.

< Les 10 documents précédentsLes 10 documents suivants >


(02/11/2007 17:14:40)

Intel veut réduire ses centres serveurs de 133 à 8

Intel vient d'annoncer qu'il allait consolider ses ressources informatiques. L'objectif est de concentrer 133 centres serveurs au sein de 8 sites. Chacun aura une superficie de 28 000 m². Le projet, qui devrait s'étaler sur les sept ans à venir, permettra d'économiser entre 1,4 et 1,8 Md$. Ces chiffres sont le résultat des premières études qu'Intel conduit depuis un an. Le fondeur, comme les autres grands acteurs du secteur des TIC, est lui-même un gros utilisateur. Aujourd'hui, Intel compte plus de serveurs (93 000) que de salariés et stocke 3,8 Péta-octets (un péta : un million de milliards) et sa logithèque atteint 2500 programmes. Si Intel ne se lançait pas dans cette opération de consolidation autour de machines multicoeurs, bien évidemment assortie d'une virtualisation et d'une mise en grille de ses systèmes, il lui faudrait 250 000 serveurs d'ici deux ans. La marge de progression est conséquente puisque, pour l'instant, Intel n'utilise que des machines hébergeant un seul système d'exploitation et, de son propre aveu, il n'existe pas de politique de rationalisation entre les différents centres en service. Cette annonce technique, qu'Intel n'a pris la peine d'annoncer que par le biais d'un billet sur un blog officiel, s'accompagne sur d'autres blogs, cette fois officieux, de commentaires moins autorisés et plus acerbes. Sur l'un d'entre eux, l'auteur s'inquiète des conséquences des licenciements qui engendrent frustration et amertume parmi les informaticiens d'Intel et qui menacent la fiabilité de l'infrastructure. Pour lui "les réductions de ressources sont des actions et non une vision. Ce ne sont que des conséquences, pas une stratégie". Tous les grands acteurs ont pris la peine de faire de la publicité autour de leurs efforts d'optimisation et de consolidation de leurs ressources informatiques. HP avait donné le signal l'an dernier en annonçant qu'il comptait concentrer ses 65 centres serveur répartis dans le monde entier à 6 aux Etats-Unis. Depuis, IBM, Sun et Cisco ont aussi communiqué sur leur propre démarche. (...)

(02/11/2007 15:30:36)

Apple autorise la virtualisation sur Leopard Server

Lancé aux côtés de la version grand public de Leopard, Leopard Server reste le parent discret de l'offre d'Apple. Ainsi, le fabricant a récemment modifié les conditions générales d'utilisation de ce système d'exploitation. Il autorise désormais l'exécution de plusieurs instances virtuelles de Leopard Server. Toutefois, cet assouplissement reste limité, puisque cette virtualisation ne peut s'effectuer qu'à partir machines d'Apple, notamment des XServe. Notons également que chaque nouvelle instance devra faire l'objet du paiement d'une licence aditionnelle. Cette ouverture se justifie par une sous-utilisation de la puissance des processeurs quadri-coeurs des plus récents XServe. Toutefois, pour John Welch, analyste spécialisé dans le monde Mac, cette décision est moins technique que marketing : « Normalement, faire tourner plus d'un service à partir d'une boîte Windows est une garantie d'échec. Windows ne supporte pas des charges importantes permanentes. Les Unix (ndlr : dont Leopard Server) permettent des utilisations beaucoup plus importantes par système, donc la virtualisation n'est pas si importante. Tout se limite à une philosophie d'entreprise. La virtualisation est parfaite pour certains et beaucoup moins pour d'autres. » D'ores et déjà, VMWare et SWSoft - avec sa filiale Parallels - ont annoncé leur intention de développer des outils de virtualisation pour Leopard Server. Mais sans fixer de date finale pour les produits. Tout juste, Parallels annonce la publication d'une version bêta gratuite d'ici un mois ou deux contre un enregistrement sur son site Web. (...)

(31/10/2007 11:08:23)

Intel commercialise l'Itanium 2 en version 2

Intel livre une version améliorée de son processeur 64 bit Itanium 2. Baptisée Montvale, cette série 9100 succède à la 9000. Toujours fondus en 90 nm, les 9100 bénéficient de quelques améliorations comme l'augmentation de la fréquence du bus frontal pour certains modèles et une meilleure gestion de l'énergie. Par exemple, le modèle haut de gamme 9150M atteint une fréquence de 1,66 GHz, avec un bus frontal à 667 MHz et 24 Mo de mémoire cache. Crédité d'un gain de performance d'environ 19% par rapport au modèle équivalent de la génération précédente, il est commercialisé à près de 4000$. L'an prochain, un Itanium Tukwila sera produit en 65 nm et embarquera 4 coeurs. (...)

(31/10/2007 10:39:58)

Le Gartner appelle à la souplesse générale grâce à la virtualisation

Agility, en anglais, signifie à la fois agilité et souplesse. Les analystes du Gartner ont choisi ce terme pour décrire ce vers quoi tendent les systèmes d'information. Ils s'avancent même jusqu'à dire que cette "agility" sera devenue en 2012 le premier critère d'appréciation d'un centre de traitement. Que recouvre précisément cette agilité ? C'est la capacité à déployer et à redéployer des ressources matérielles et logicielles pour s'adapter le plus rapidement possible aux évolutions de l'activité de l'entreprise. Derrière ce qui demeure un concept, c'est la virtualisation qui pointe son nez. C'est en "virtualisant" serveurs, stockage et postes clients que l'on gagnera le plus en agilité et en souplesse. Ce potentiel de la virtualisation à automatiser l'infrastructure en ajoutant un niveau d'abstraction qui permet enfin une gestion d'ensemble vient s'ajouter à ce qu'elle permet d'améliorer en termes d'optimisation des ressources de traitement et d'économie d'énergie. Tom Bittman, qualifié d'analyste distingué par ses pairs, ne cache pas que le chemin qui conduit à un système d'information souple et adaptable est parsemé d'embûches. En particulier, la maturité des technologies à mettre en oeuvre laisse autant à désirer que l'envergure des projets est immense. D'ailleurs, cette agilité est beaucoup plus difficile à mesurer que la performance, la bande passante ou le retour sur investissement. Il faudra pourtant s'y mettre. Cela commence par mesurer combien coûte en temps et en ressources la configuration et la mise en service d'un serveur, le déploiement d'un nouvel applicatif ou la résolution d'un problème. C'est à l'aune de ces informations que l'on pourra commencer à apprécier l'intérêt d'une virtualisation réussie. Le Gartner s'aventure même à prédire que les outils de virtualisation pourront permettre de diviser le temps de déploiement d'un serveur par trente. Avec une pénétration du marché potentiel de la virtualisation estimée à 6%, le Gartner place 2007 à l'aube de cette ère nouvelle. On devrait atteindre 11% en 2009. Ces taux se traduisent par un parc total de serveurs virtualisés estimé à 1,2 million cette année qui devrait frôler les 4 millions en 2009. (...)

(30/10/2007 18:00:58)

OpenVMS fête ses trente ans

Trente ans et toujours opérationnel. VMS, le système d'exploitation né avec les Vax de Digital Equipment (DEC) et devenu OpenVMS, continue de faire tourner en temps réel des applications transactionnelles stratégiques. Tellement stratégique que l'argument est poliment opposé lorsque l'on veut en savoir un peu plus sur ces utilisateurs qui continuent de faire tourner qui sa facturation pour opérateur mobile, qui son système boursier en ligne temps réel, qui son casino virtuel. Chez HP, on glisse toutefois que l'on trouve OpenVMS derrière une facture mobile sur trois et derrière celle de deux SMS sur trois. OpenVMS aura résisté à deux rachats successifs, celui de DEC par Compaq en 1998 et, à la suite de cette erreur stratégique, de Compaq par HP en 2002. Parmi les bougies de son trentième gâteau d'anniversaire, figure celle de la version 8.3 H1. Certes mineure, cette mise à jour assure le support des serveurs Itanium au format lame et les fonctionnalités de gestion d'énergie associées. Elle montre bien qu'HP fait de son mieux pour inviter les 150 000 sites toujours sur processeurs Alpha à sauter le pas pour passer sur processeur Itanium. Un mouvement d'autant plus naturel qu'OpenVMS a déjà sa place parmi les OS supportés par l'hyperviseur d'HP-UX, l'autre système d'exploitation des serveurs Itanium. Certains fans d'OpenVMS y voient d'ailleurs le risque d'une digestion lente. HP souligne pourtant que l'abandon de systèmes Alpha pour des Itanium permet d'économiser de l'ordre de 30% du TCO (Total cost of ownership). Du côté des applications, HP souligne que la logithèque portée sur Itanium s'approche désormais des 1300 références et des 600 éditeurs. Chez Oracle, on continue de faire évoluer RDB, le SGBD acheté à Digital Equipement, et on assure qu'un portage de la version 11g viendra succéder à celui de 10g. Par ailleurs, le SGBD MySQL et JBoss fonctionnent déjà sous OpenVMS. HP se préparerait à en assurer directement le support. Ce serait un signe fort pour signifier l'engagement d'HP de faire plus que maintenir en vie OpenVMS. (...)

(30/10/2007 17:44:02)

Des supercalculateurs dans le creux de la main

Les supercalculateurs vont-ils devenir de plus en plus petits ? Pour Michael Zaiser, professeur d'électronique à l'université d'Edimbourg, ils tiendront dans le creux de notre main d'ici 10 à 15 ans. Le secret de cette miniaturisation tiendrait dans des nano-fils électriques, mille fois plus petits qu'un cheveu humain. Jusqu'à présent, ces fils avaient un comportement trop désordonné pour être assemblés au sein de circuits électriques. En collaborant avec l'institut de technologie de Karlsruhe en Allemagne et l'université de Rome, l'équipe du docteur Zaiser a développé un programme pour prédire quelles formes prendront les fils placés dans différentes situations. Il deviendra alors possible de les assembler dans des circuits électroniques beaucoup plus petits. La domestication des nano-fils n'est qu'une étape, certes fondamentale. Avant d'arriver à l'étape de véritablement les faire tenir dans des supercalculateurs, il faudra en franchir d'autres. Comme, par exemple, résoudre le problème des fluctuations thermiques assez fréquentes à cette échelle. « Le cerveau humain est très bon pour résoudre les problèmes liés aux microprocesseurs », estime Michael Zaiser. « Je pense que nous sommes proches du résultat. D'ici 10 ans, peut être 15. Regardez 10 ans en arrière. Vous pouviez avoir un téléphone portable de la taille d'un combiné téléphonique seul, et il ne marchait pas si bien. Aujourd'hui, vous pouvez intégrer un ordinateur puissant dans ce petit appareil. » (...)

(25/10/2007 16:06:54)

Les résultats trimestriels de VMware crèvent les plafonds

Résultats 3e trimestre 2007 (clôture au 30 septembre) Chiffre d'affaires : 357,8 M$ (+ 90%) Bénéfices nets : 64,7 M$ (+ 242%) Sur neuf mois Chiffre d'affaires : 913 M$ (+ 92,6%) Bénéfices nets : 139,98 M$ (+ 154,5%) Pour son premier trimestre public et le troisième de l'exercice en cours, le champion de la virtualisation VMware affiche des résultats mirobolants et au-delà des prévisions. Tant sur trois que sur neuf mois, le CA bondit de 90% et la rentabilité progresse encore plus vite. Les ventes de licences représentent 68% du CA, le reste revient au service. La société pousse à fond les feux du marketing (+106%) mais commence à lever le pied sur la R&D (+57%). Elle dispose déjà d'un milliard de dollars de liquidité grâce aux rentrées d'argent à la suite de son introduction en bourse. VMWare affirme que ses ventes s'envolent grâce à l'adoption de VMware Infrastructure, son outil d'administration, signe d'un enracinement de VMware dans les data centers qui lui permettrait de mieux résister à l'arrivée des concurrents. Dans la même ligne, VMware souligne la bonne tenue des ventes de ses outils de virtualisation pour postes de travail, en particulier de VDI (Virtual Desktop Infrastructure). La société est partie pour atteindre 1,3 Md$ de CA annuel. Cette croissance record la hisserait directement au niveau de Citrix. Aujourd'hui, la bourse estime VMware à près de 40 Md$ et Citrix à seulement à 7,5 Md$. (...)

(24/10/2007 17:47:56)

Un processeur Intel dans une station de travail Sun

C'est en découvrant un processeur Intel Core 2 Extreme Quad Core dans la station de travail Sun Ultra 24 que l'on constate que ce genre de couple peut encore susciter une forme d'émotion. Un peu comme un moteur diesel dans une voiture vainqueur des 24 heures du Mans. Et l'on continue de sourire lorsque l'on apprend que l'accord OEM signé par Sun pour le support de Microsoft Windows ne concernait que la version Serveur sur la ligne Galaxy. Il faudra attendre encore un peu pour pouvoir commander l'engin avec Windows XP ou Vista. La puissance de la machine, qui peut embarquer 8 Go de RAM et supporte les adaptateurs graphiques nVidia (concurrent d'ATI/AMD), semble pourtant suffisante pour faire tourner le dernier OS de Microsoft à une vitesse satisfaisante. Bâti autour du jeu de composants Intel X38, la Sun Ultra 24 supporte la quasi-totalité des processeurs Core 2 d'Intel et à toutes leurs fréquences. (...)

< Les 10 documents précédentsLes 10 documents suivants >