Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 2231 à 2240.
| < Les 10 documents précédents | Les 10 documents suivants > |
(16/02/2007 17:11:04)
Unix maintient sa position dans les data center
Unix est-il toujours un système d'exploitation populaire dans les systèmes d'information ? Pour répondre à cette question, le cabinet d'analyses Gabriel Consulting Group a effectué un sondage, non pas auprès des directeurs informatiques, mais directement auprès des responsables de data centers. Durant le dernier trimestre 2006, la société a interrogé 277 d'entre eux venant de toutes sortes d'entreprises (40% travaillent en PME) et gérant des parcs allant d'un ou deux serveurs Unix à plus d'une centaine. Et la réponse est sans appel. A près de 68%, ils considèrent que l'usage des serveurs Unix dans leur entreprise va s'accroître prochainement. « Ceci montre que le marché Unix est en bonne santé », affirme l'analyste Dan Olds. « Les systèmes Unix et les applications qui leurs sont associées remplissent des missions vitales dans de nombreuses entreprises. Les coûts et risques liés au passage à une autre architecture sont trop élevés pour justifier des bénéfices pas aussi significatifs qu'annoncés ». Si l'on regarde plus en détail, les serveurs d'entrée de gamme ne semblent pas représenter l'avenir des systèmes Unix. 46,7% des responsables interrogés ne voient pas l'usage d'Unix croître dans ce domaine et près de 18% n'en ont aucune idée. En revanche, 54,09% d'entre eux pensent que le besoin en serveurs Unix haut de gamme va augmenter. « Cela montre que l'idée de systèmes Unix à grande échelle est encore à la mode et restera encore populaire dans le futur. Cela ne signifie pas que les systèmes basés sur des processeurs x86 ne peuvent obtenir les mêmes résultats en terme de capacités, d'échelles ou de disponibilité. Ils le peuvent », prévient Dan Orbs. « Nous disons juste que ces systèmes ont encore du chemin à parcourir pour égaliser ou dépasser la valeur totale des systèmes Unix, en particulier dans le haut de gamme ». Selon vous, votre usage des serveurs Unix croît...
| En entrée de gamme | En haut de gamme | Tous types confondus | |
| D'accord | 35,41% | 54,09% | 67,71% |
| Pas d'accord | 46,7% | 29,96% | 22,96% |
| Ne sait pas | 17,9% | 15,95% | 9,34% |
HP dope sa ligne Integrity à l'entrée de gamme
Un nouveau système d'exploitation et deux nouveaux serveurs, HP relance sa gamme de serveurs Integrity, basée sur les processeurs Itanium d'Intel. Alors que le constructeur réservait traditionnellement cette gamme au marché haut de gamme, il vise l'entrée de gamme avec ces deux serveurs multi-OS. Le premier, le rx2660, est un serveur rack 2U. Vendu à partir de 4016 E, il embarquera des processeurs bi-coeur Itanium 9000 à 1,4 GHz ou 1,6 GHz. Il pourra supporter jusqu'à 1,2 To de mémoire et semble plutôt destiné aux fermes de calculs. Le deuxième est un serveur lame, le BL860c, qui reprend peu ou prou les mêmes caractéristiques que le rx2660, mais dans une forme différente. Il sera commercialisé à partir de mars pour 3010 E. "Une des caractéristiques de ces serveurs a été le partage et la réutilisation des composants des Proliant, confie Benoît Maillard, responsable des serveurs critiques chez HP France, et notamment au niveau des fonctions d'administration". "Une initiative qui a notamment permis de pratiquer ainsi de nouveaux tarifs intéressants", ajoute Frédéric Léonetti, directeur de la division serveurs d'HP France. Et de pousser le support du rx2660 à trois ans au lieu d'un, comme c'était le cas précédemment. Cette concentration des investissements sur l'entrée de gamme ne rime toutefois pas avec une baisse des performances, laisse entendre Benoît Maillard. "Le chipset HP zx2 est la clé de la performance sur la lame BL860c. Il prend en charge la continuité de services, ce qui est traditionnellement réservé aux mainframe". HP a également annoncé la nouvelle version de son Unix : HP-UX 11iV3. Par rapport à la version précédente, celle-ci gère mieux les environnements virtualisés et garantit, selon HP, un gain de 20 à 30 % en rapidité pour les applications installées sur le serveur. "L'accent a été mis sur la logique de continuité, explique Benoît Maillard. Nous avons travaillé à limiter les suspensions de services, à réduire les temps d'indisponibilité et à améliorer la stabilité". (...)
(15/02/2007 16:54:29)Un serveur p5 rajeuni pour séduire le monde Linux
A l'occasion du Linux World Open Solution à New York, IBM a présenté une nouvelle version de son serveur p5 560Q. Outre des processeurs Power5+ à 1,5 GHz, ce nouveau serveur pourra également accueillir des Power 5+ à 1,8 GHz., dans un module quadri-coeur (c'est à dire deux processeurs bi-coeurs réunis sur un même socket). Suivant les besoins de l'entreprise, ce serveur 4U pourra donc accueillir 4, 8 ou 16 coeurs suivant le nombre de processeurs installés. Au-delà d'une augmentation de fréquence, ce p5 560Q se distingue de son prédécesseur sorti l'an dernier par sa compatibilité avec Red Hat Linux Enterprise 4 et Suse Linux Enterprise Server 10 de Novell. Tout en restant compatible avec l'Unix maison : AIX 5L 5.3. IBM a également l'intention d'étendre son programme Integrated Stack for Suse Linux Enterprise aux systèmes basés sur les processeurs Power. Ce programme offre, avec une version de Suse Linux Enterprise, des logiciels maison gratuits tels que Websphere Community Edition, DB2 Express-C et l'outil d'administration Centeris. Toutes ces offres n'ont qu'un but : convaincre les utilisateurs Linux que les processeurs Power sont une alternative viable aux processeurs x86. « En utilisant des technologies de virtualisation sur des systèmes Power, IBM peut remplacer des serveurs x86 sous-utilisés », affirme les porte-paroles de la compagnie, en précisant qu'un seul rack de cinq serveurs p5 560Q peut remplacer jusqu'à huit racks de 320 serveurs Web sous Linux montés sur des systèmes X86. Commercialisé à partir de 43 800 dollars, le nouveau p5 560Q sera disponible dès le 23 février. (...)
(14/02/2007 16:48:18)IBM modifie la DRAM pour accélérer ses puces
Dans un document présenté à la conférence ISSCC (International Solid State Circuits Conference) à San Francisco, IBM a dévoilé un prototype de mémoire embarquée (eDRAM) plus petite qui, selon lui, pourrait doubler les performances des processeurs. Le principe, décrit Big Blue dans le document, vise à remplacer la mémoire SRAM (Static RAM), type de composant utilisé pour la mémoire cache de chaque puce, par de la DRAM (Dynamic RAM) modifiée. Un mécanisme qu'IBM exploite déjà dans ses puces gravées à 65nm. Mais qui devrait pleinement se révéler, en termes de rapidité d'accès aux données, avec les processeurs gravés à 45 nm, dont la sortie est prévue pour 2008. Pour cela, IBM prévoit de développer un type de DRAM plus rapide. Big Blue indique que cette nouvelle méthode permettra également de réduire l'espace de stockage du cache d'un tiers tout en multipliant la quantité de données stockées. Et cela en consommant cinq fois moins d'énergie. Dans un entretien donné au Herald Tribune, les chercheurs d'IBM ont déclaré avoir réussi à réduire le cycle d'accès à 2 nanosecondes, soit 10 fois plus rapide qu'une DRAM classique utilisée sur un PC. La technologie pourrait améliorer considérablement les performances des processeurs multi-coeurs et des applications sollicitant des données graphiques, comme le jeux ou le multimédia. Rappelons au passage que les puces IBM - Power ou Cell - motorisent notamment les consoles PlayStation 3 (Sony) et la Wii (Nintendo). (...)
(14/02/2007 14:39:53)La start-up D-Wave prévoit de commercialiser son ordinateur quantique dès 2008
L'ordinateur quantique sort-il enfin des romans de science-fiction pour entrer dans le domaine commercial ? C'est en tout cas la promesse de D-Wave Systems, une start-up canadienne forte d'un financement de capital-risque de 20 M$, qui a fait une démonstration mardi dernier d'Orion, son ordinateur quantique. Il est constitué d'une paire de super-conducteurs - aluminium et niobium - portés à une température proche du zéro absolu (- 273,15° C). A un tel froid, les métaux peuvent se trouver dans les positions électriques 0 et 1 simultanément. Permettant ainsi d'obtenir de véritables bits quantiques (qubits). A la différence d'un bit classique se basant sur la physique traditionnelle, un bit quantique peut être soit un 0, soit un 1, soit un 0 et 1 en même temps. En pratique, cela permet de résoudre beaucoup plus rapidement certains problèmes. Comme l'explique Geordie Rose, directeur technique de D-Wave : « si vous écrivez un 0 et un 1 sur une surface classique comme un transistor ou une mémoire magnétique, l'information va se comporter d'une certaine façon. Si vous découvrez une façon d'écrire de l'information sur un objet quantique, cette information va se comporter d'une autre façon. Et vous pouvez exploiter cette différence pour accélérer drastiquement le temps de calcul au point que certains problèmes par principe insolvables jusqu'ici peuvent désormais se résoudre facilement. » Lors de la démonstration, Orion a ainsi résolu un problème de sudoku, arrangé un plan de table par affinités de personnes et - plus utile - vérifié une correspondance moléculaire en quelques minutes. Le calcul quantique est également mis en avant pour résoudre les problèmes de cryptographie : casser une clé ne prendrait que quelques heures, contre des centaines d'années avec les ordinateurs actuels. « Si les scientifiques pouvaient construire un tel instrument, celui-ci effectuerait les calculs à une telle vitesse qu'il ravalerait les superordinateurs modernes au rang de bouliers », écrit Simon Singh dans son Histoire des codes secrets (éditions Lattès). D-Wave commencera par louer du temps de calcul Avec seulement 16 qubits de puissance de calcul, Orion n'est pas si impressionnant, mais il peut, selon son concepteur, effectuer 64 000 opérations simultanées (environ 2 puissance 16). Et D-Wave compte lancer une version à 32 qubits d'ici à la fin de l'année, puis des versions à 512 qubits et 1024 qubits en 2008. En attendant une commercialisation directe, D-Wave propose de louer le temps de calcul d'Orion et de lui envoyer les problèmes à résoudre par Internet. Toutefois, avant de remplacer les data centers traditionnels par des ordinateurs quantiques, il va falloir résoudre au moins trois problèmes. Comment faire tenir les « frigos » nécessaires au refroidissement des composants dans une même salle ? Puisqu'il s'agit de physique quantique, comment augmenter le nombre de qubits sans générer d'interférences nuisibles au calcul ? Et enfin l'éternel problème, comment programmer ces ordinateurs. Pour Orion, D-Wave a utilisé un système nommé Adiabatic Quantum Computation, conçu avec l'aide du professeur Lloyd du Massachusetts Institute of Technology, qui lie profondément logiciel et matériel. (...)
(12/02/2007 12:48:10)La virtualisation séduit les data centers et les PME, indique Forrester
Née dans les années 60, la virtualisation - ou l'émulation de plusieurs applications ou systèmes d'exploitation sur un même ordinateur - séduit les data centers du 21e siècle. C'est en tout cas le résultat d'une étude menée par Forrester Research auprès de 1270 entreprises. Par rapport à 2005, l'intérêt pour la virtualisation s'est accru. Notamment en Amérique du Nord où 51 % des sociétés testent ou ont déjà déployé des technologies de virtualisation dans leurs data centers (contre 41 % seulement en 2005). En Europe, 35 % des sociétés ont des projets ou des déploiements de virtualisation (contre 30 % en 2005), et dans la zone Asie-Pacifique, elles sont 21 % (contre 23 % en 2005 ; selon Forrester cette baisse est due à un échantillon plus petit de sociétés asiatiques). Longtemps réservée aux grands comptes, la virtualisation - et ses économies d'échelle - suscite l'intérêt de toutes les tailles de sociétés. Ce sont même les plus petites d'entre elles qui s'y sont le plus intéressées en 2006. Ainsi 83 % des PME et 86 % des entreprises de taille moyenne ont déclaré étudier la virtualisation (contre respectivement 62 % et 60 % d'entre elles en 2005), alors que l'intérêt des grands comptes n'est passé que de 87 % à 92 % en un an. Une attraction bien comprise des éditeurs : VMWare comme XenSource ont des offres dédiées aux PME. (...)
(09/02/2007 15:54:30)La virtualisation au menu du nouveau noyau Linux
La version 2.6.20 du noyau Linux est sortie, et avec elle commence une nouvelle ère pour le système libre : celle de la virtualisation. Plusieurs solutions existaient déjà pour virtualiser des systèmes Linux, mais l'ajout d'une solution au coeur du système posait problème. Tant XenSource que VMWare auraient bien voulu voir leur code adoubé, mais il semblait délicat de se lier à une de ces technologies en particulier. Linus Torvalds, qui dirige les travaux de développement du noyau au sein de la Linux Foundation, estime avoir trouvé la solution avec la paravirtualisation, ce qui permet de faire cohabiter plusieurs machines virtuelles. Le noyau inclut aussi une technologie de virtualisation développée par une start-up israélienne, Qumranet, appelée KVM (Kernel-based Virtual Machine). Celle-ci sait tirer parti des fonctions de virtualisation des derniers processeurs Intel et AMD. Malgré ces ajouts, Linus Torvalds dit qu'il s'agit surtout d'une version de stabilisation. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |