Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1891 à 1900.

< Les 10 documents précédentsLes 10 documents suivants >


(27/02/2008 10:38:03)

Le marché des serveurs pourrait marquer le pas en 2008, estime IDC

Après avoir enregistré de solides performances en 2007, le marché mondial des serveurs pourrait connaître une année 2008 plus délicate selon IDC. L'institut évoque ainsi un recul des revenus de ce secteur, essentiellement dû au ralentissement global de l'économie prévu pour l'année en cours. « L'impact de l'économie sur le marché de l'infrastructure IT dépendra de la durée et de l'intensité de ce ralentissement, explique IDC. Certains projets pourraient être reportés et contribuer ainsi à un recul de la croissance globale. » En 2007, les vendeurs de serveurs ont enregistré des revenus de 54,45 Md$, un record depuis les 61,6 Md$ atteints en 2000. Au T4, le marché affichait son septième trimestre consécutif de croissance en valeur. Une progression reposant sur la vitalité des serveurs lames, qui parvenait à contrebalancer un recul sur les segments moyen et haut de gamme. Cette année, plutôt que de continuer à investir dans leur infrastructure serveur, les entreprises pourraient être tentées de consolider l'existant et de se tourner vers les technologies de virtualisation, qui garantissent - théoriquement - un retour sur investissement rapide. « Ces types de projets seront autant de preuves de la récession », estime IDC. La tendance évoquée par l'institut d'études corrobore ce qu'indiquait Frédéric Giron, du cabinet Pierre Audoin Consultants, au MondeInformatique.fr au début du mois. Selon lui, « le climat économique incertain que nous observons depuis le début de l'année aura un impact certain sur des marchés clés (notamment les secteurs bancaires et financiers), qui sont en général très dynamiques en termes d'investissements IT. » Pour la France, PAC table ainsi sur une décélération des investissements informatiques d'environ 2,5% en 2008. (...)

(27/02/2008 10:03:12)

Ranger, 2e supercalculateur le plus puissant au monde, débarque au Texas

L'Université du Texas vient de s'offrir Ranger, le deuxième supercalculateur le plus puissant de la planète, en collaboration avec la National Science Foundation (NSF). Construit par Sun, il est animé par 15 744 Opteron d'AMD, soit la bagatelle de 62 976 coeurs, 123 To de mémoire vive et 1,7 Po d'espace de stockage. Selon AMD, si le Top 500 - le classement biannuel des supercalculateurs - paraissait aujourd'hui, Ranger s'arrogerait la deuxième place grâce à sa puissance de calcul de 504 teraflops (soit 504 millions de milliards d'opérations par seconde). Il prendrait ainsi place derrière l'inamovible vainqueur du classement, le BlueGene/L d'IBM et ses 569 teraflops. La machine, installée dans les locaux de l'Université du Texas au sein d'une immense pièce de 6000 m², nécessite une puissance électrique de 3 Mw, dont 1 Mw pour le seul système de refroidissement. Financé par des fonds publics, Ranger a coûté 30 M$ à la NSF et sera mis gratuitement à la disposition de tous les scientifiques installés aux Etats-Unis. Une commission d'universitaires étudiera les demandes des chercheurs et attribuera des créneaux aux projets jugés les plus intéressants. Depuis le 4 février, date à laquelle Ranger a été déployé à Austin, 400 scientifiques ont déjà éprouvé sa puissance. Parmi eux, Volker Bromm, professeur d'astronomie, tente de percer les secrets de l'âge sombre cosmique, une période de quelques centaines de millions d'années séparant le Big Bang de l'apparition des premières étoiles. « Nous avons besoin de simuler une grande partie de l'univers. Jusqu'à présent, cela ne pouvait être réalisé par aucune machine. Avec la débauche de puissance de Ranger, nous pouvons pour la première fois mieux comprendre l'immensité de l'univers et de ses plus petites composantes comme le système solaire. Ranger est une machine à voyager dans le temps. » (...)

(26/02/2008 17:14:06)

VMworld 2008 : VMware peaufine la virtualisation du poste de travail

« Le bureau virtuel est le futur de la virtualisation. » Diane Greene, PDG de VMware, à l'occasion de VMworld 2008 à Cannes, annonce clairement la couleur. La virtualisation du poste de travail est bien un créneau sur lequel la société avance. Et elle compte bien développer ses offres existantes, Virtual Desktop infrastructure (VDI) et ACE sur ce marché très prometteur. IDC estime que le marché de la virtualisation du desktop devrait dépasser le milliard de dollars d'ici à 2011. Si Diane Greene juge cette analyse « agressive », la société poursuit ses expérimentations sur le segment. VMworld 2008 a ainsi été témoin de la démonstration en avant-première de deux technologies sur lesquelles VMware travaille. Côté utilisateur d'abord, Offline VDI permet de travailler sur son environnement de travail virtualisé depuis un serveur distant, en mode déconnecté. Une fois reconnecté, la machine virtuelle est copiée sur le serveur, assurant la synchronisation de l'ensemble. Côté administrateur, Scalable Virtual Image permet la configuration et le déploiement de plusieurs images de machines virtuelles à partir d'un master central. « Cela permet de gérer tout les desktops virtualisés à partir d'une unique image. De plus, il réduit les besoins en stockage », ajoute Jerry Chen, directeur d'Enterprise Desktop chez VMware. Dans la foulée, VMware a annoncé intégrer les technologies de Thinstall, société rachetée en début d'année et qui permet d'exécuter en toute sécurité une application sans installation, technologie devenue pour l'occasion Application Virtualization Technology. « La combinaison de toutes ces offres desktop constitue le futur du VDI, explique Jerry Chen. Les pays émergents peuvent par exemple être une cible ». (...)

(26/02/2008 16:59:17)

Un hexa-coeur chez Intel avant la fin de l'année

Intel devrait lancer un Xeon à six coeurs avant la fin de l'année. C'est ce qui ressort d'un document présenté par le fondeur à Sun, et malencontreusement laissé en ligne par ce dernier. Certes peu de temps, mais suffisamment pour que nous vous présentions les grandes étapes de la feuilles de route d'Intel en matière de plateformes serveurs. Dans un premier temps, au cours de la seconde moitié de l'année, les processeurs Dunnington et leurs six coeurs devraient voir le jour. Derniers nés de la famille Penryn, ils succèderont aux Tigerton, qui réunissaient deux bi-coeurs gravés en 65 nm. Avec Dunnigton, Intel passe à l'étape supérieure en casant trois paires de coeurs sur une même puce. Penryn oblige, ils bénéficieront d'une gravure en 45 nm, ce qui limitera leur consommation, Intel tablant sur une dissipation thermique de 130 W. Les six coeurs se partageront 16 Mo de cache de troisième niveau et chaque paire héritera de 3 Mo de cache L2. Les utilisateurs actuels de Xeon récents pourront lâcher un soupir de soulagement en apprenant que Dunnington reposera sur le même socket que la gamme Tigerton. La feuille de route d'Intel réserve une surprise plus grande que Dunnington, qui n'est finalement qu'une déclinaison logique des bi- et quadri-coeurs du fondeur. La génération de CPU Nehalem, qui sortira après les hexa-coeurs, devrait en effet trancher avec la tendance suivie depuis plusieurs années par Intel en ce qu'elle reposera sur une architecture modulaire, permettant de greffer trois ou quatre paires de coeurs - voire davantage. Le fondeur y inclura également un bus de transport interne et un contrôleur mémoire, comme l'indiquait Kirk Skaugen, vice-président en charge des plateformes serveurs, au MondeInformatique.fr en novembre 2007. (...)

(26/02/2008 16:08:57)

VMworld 2008 : ouverture sur un air d'administration et d'embarqué

C'est dans le mythique auditorium Louis Lumière du palais des Festivals de Cannes, le Saint des Saints du cinéma français, que Diane Greene, PDG de VMware, a inauguré sa première conférence utilisateur sur le sol européen. Devant un parterre de plus de 4500 personnes, la PDG du n°1 de la virtualisation, qui a le vent en poupe, a accueilli à bras ouverts la centaine de partenaires stratégiques et technologiques qui occupent les stands, un peu plus bas dans l'enceinte. Il faut dire que l'éditeur au milliard de dollars a vu les choses en grand. En témoigne la Croisette qui pendant les trois jours de la manifestation s'habille aux couleurs de VMWorld 2008, fanions au vent. C'est ainsi tout un écosystème, ici européen, qu'a tenu à remercier Diane Greene au premier jour de la conférence, sans toutefois multiplier les annonces tonitruantes, qui avaient rythmé l'édition américaine, en septembre dernier. Au programme, l'annonce évidente, mais très attendue, de solutions de gestion automatisée et d'administration qui contrôleront l'ensemble du cycle de vie de la virtualisation. Quatre produits sont prévus : Site Recovery Manager, Lifecycle Manager, Lab Manager et enfin Stage Manager. Ainsi « nous couvrons l'intégralité du spectre du cycle de vie, du développement à la mise en production », a confié ensuite aux journalistes Karthik Rau, directeur marketing de VMware. Lab Manager couvrira la gestion des phases de tests et de développement jusqu'à la phase de mise en production en provisionnant des environnements de test. Stage Manager assure les phases entre la pré-production et la production pour faciliter le déploiement. LifeCycle Manager supervise le cycle de vie des machines virtuelles - et éviter leur multiplication et leur éparpillement. Enfin, Site Recovery Manager doit faciliter la récupération de système. [[page]] Après avoir rappelé que la jeune société, après dix ans d'existence, rime actuellement avec croissance fulgurante - « la longue route pour devenir un acteur majeur » nuance-t-elle toutefois -, Diane Green a sollicité l'aide de ses partenaires pour aborder la question, parfois cinglante, des performances et de la stabilité d'ESX Server. « Trois labs sont ouverts pour l'occasion à VMworld 2008 », indique-t-elle, histoire de rassurer. Et preuve à l'appui. Après l'exposé de BT sur le concept du datacenter virtuel pour démontrer la fiabilité du produit, c'est IBM, un des partenaires platinum de l'éditeur, qui est venu présenter « un record de performance » et pousser dans ses retranchements le concept de virtualisation d'applications : faire tourner un serveur Exchange sur huit machines virtuelles dédiées chacune à 2000 utilisateurs. Une prouesse selon le constructeur. L'hyperviseur embarqué en point d'orgue Au coeur du discours d'inauguration, trois annonces OEM autour de ESX Server 3i, l'hyperviseur embarqué, sont apparues. IBM, HP, puis Dell ont séparément décidé d'intégrer 3i par défaut dans certaines gammes de leur serveurs. Big Blue inaugure BlaceCenter Vmware ESX 3i, une lame optimisée pour la virtualisation, et présente le concept d'Instant virtualisation. Grosso modo, « on crée un marchine virtuelle, on configure et on déploie ». HP lance de son côté 3i for HP ProLiant. Le directeur marketing de Dell, en forme, est venu présenter l'intégration de l'hyperviseur embarqué à toute la gamme PowerEdge. « VMware everywhere », scande le slogan du Texan. Couplé à l'intégration en natif sur ses serveurs, Dell lance un service en ligne de téléchargement de VMware (VMwareNow) qui porte, selon lui, la virtualisation à un clic. « On télécharge, on installe et ça marche. » Une facilité d'accès couplée à une simplicité de configuration - du moins sur le papier -, qui pourrait pousser la virtualisation entre les mains des PME. Le thème de la sécurité devrait être abordé au deuxième jour de la conférence. (...)

(26/02/2008 14:29:30)

Un z10 d'IBM délivrerait la puissance de 1500 serveurs x86

Les mainframes continuent d'évoluer et de battre des records. IBM présente son grand système z10 Enterprise Class, accompagné de la version 1.10 du z/OS, qui succède au z9, lancé en 2005. Crédité d'une puissance de 27 000 Mips, contre 18 000 pour le z9, ses 64 moteurs (processeurs) disponibles pour les applications clients délivreraient 50% de puissance supplémentaire par rapport aux 54 moteurs du z9. Lui aussi promis pour septembre, z/OS v1.10 gèrera les 64 moteurs du z10 et permettra d'adresser 1 To de mémoire physique par partition logique. IBM compare la puissance de traitement de cette machine à celle de 1500 serveurs x86 mais souligne qu'un z10 occupe une surface 85% moindre et consomme moins d'électricité dans les mêmes proportions. De ces caractéristiques hors normes découlent des prix de même envergure : le ticket d'entrée s'établit au dessus de la barre du million de dollars. Néanmoins, IBM semble être en passe de réussir à maintenir la compétitivité des grands systèmes, considérés il y a peu comme obsolètes. Chez IBM, l'écosystème des grands systèmes représenterait 25% du CA et près de la moitié des profits. (...)

(26/02/2008 12:02:46)

Novell entre dans la gestion de la virtualisation en rachetant PlateSpin

L'administration de systèmes hétérogènes est un axe stratégique pour Novell, surtout à l'heure où la tendance est à la virtualisation. Si on en doutait encore, l'éditeur de la suite d'administration ZENworks vient d'en donner la preuve, en rachetant PlateSpin pour 205 M$, alors que cet éditeur n'a réalisé qu'une vingtaine de millions de dollars de chiffre d'affaires en 2007. L'offre de PlateSpin repose sur deux produits, PowerRecon, qui établit une sorte d'inventaire des applications et des serveurs d'un datacenter, et mesure la consommation des ressources ; et PowerConvert, qui permet de distribuer les charges applicatives sur des serveurs physiques ou virtuels. Ces fonctions d'administration de serveurs virtualisés visent à rendre les datacenters plus dynamiques : il s'agit d'optimiser les ressources matérielles dévolues à des charges applicatives en fonction de l'évolution de ces dernières, au cours de la journée, de la semaine, du mois... Citrix a théorisé la chose avec son concept de 'delivery center', mais il est clair que l'administration est désormais le cheval de bataille des autres acteurs de la virtualisation et du grid, comme VMWare, Microsoft ou Platform Computing. En s'offrant un acteur agnostique (la transaction devrait être finalisée fin avril), Novell gagne une place stratégique dans cette arène. (...)

(26/02/2008 10:15:02)

Windows Server 2008 pourrait faire basculer les entreprises vers le 64 bits

Le lancement d'une nouvelle famille de serveurs Windows cette semaine va déclencher un vaste mouvement d'adoption des versions 64 bits de Windows Server, estiment les analystes. Steve Ballmer, le directeur général de Microsoft, va lancer mercredi des mises à jour majeures de ses produits, le système d'exploitation Windows Server 2008 - dont la sortie est prévue pour la semaine prochaine - et la base de données SQL Server 2008, attendue pour le troisième trimestre, après des retards. Le besoin de puissance pour la virtualisation Comme leurs versions précédentes, ces nouveaux produits seront fournis à la fois en versions 32 bits et 64 bits. Mais plusieurs facteurs font cette fois-ci que plus de clients devraient choisir les versions 64 bits. On citera la disponibilité des serveurs x86 avec des jeux d'instructions 64 bits et la tendance à la consolidation et à la virtualisation. Le basculement aura lieu graduellement étant donné que la plupart des entreprises ne devraient pas déployer ces produits à grande échelle avant 2009. Mais cela marquera une étape de maturité significative pour les produits serveurs de Microsoft arrivant après les Unix 64 bits de Sun, IBM ou de HP dans les centres informatiques. Tirer le meilleur parti des serveurs 64 bits « Cela va faire pencher la balance vers plus de déploiements en 64 bits », relève John Enck, vice-président et analyste chez Gartner. L'évolution sera amenée par le désir des clients de tirer le meilleur parti de leurs serveurs 64 bits, « ce qui signifie utiliser un système d'exploitation 64 bits ». [[page]]De plus, Microsoft a déclaré qu'il s'agirait de la dernière grande mise à jour de Windows Server proposée à la fois en 32 et 64 bits. Assumer les futures applications A l'ère de la virtualisation, « N'importe qui effectuant un déploiement serait fou de ne pas au moins considérer quand et où, un système d'exploitation 64 bits fera l'affaire », déclare quant à lui Al Gillen, vice-président d'IDC. « Il s'agit de se donner les moyens d'assumer les futures applications sur vos serveurs avant qu'ils ne soient retirés dans cinq ans ». IDC est même un fervent partisan de Windows Server 64 bits, appelant le manque d'enthousiasme des entreprises l'« une des plus grandes opportunités ratées ». A la fin de 2007, IDC estime qu'à peine 10% des clients Windows Server utilisaient la version 64 bits de Windows Server 2003. Fin 2010, cette valeur devrait atteindre 50%, grâce à Windows Server 2008. En 2010, 75% des licences vendues devraient être des versions 64 bits de Windows. (...)

(25/02/2008 12:49:41)

HP acheteur numéro un de semi-conducteurs en 2007

Avec une facture de 15 Md$, c'est HP qui, en 2007, a décroché le record d'achat de semi-conducteurs. Toujours selon le Gartner Group, les 10 premiers acheteurs ont dépensé 91 Md$ en composants l'an dernier, à peine 1% de plus qu'en 2006. En terme de chiffre d'affaires, c'est encore l'industrie informatique la plus grosse consommatrice (38% du CA), suivie par les télécoms (35%) et les produits grand public (20%). A noter que l'industrie automobile n'absorbe que 2% du marché. C'est Nintendo qui décroche la plus grosse croissance (+100%) avec 3,6 Md$ d'achat pour répondre à la demande pour sa console Wii. De son côté, la SIA (Semiconductor industry association) indique que les ventes mondiales ont atteint 255,6 Md$ en 2007 (+3,2%). Cette augmentation est nettement en deçà des 10% prévus lors d'une première estimation réalisée fin 2006. Selon la SIA, la demande était bien au rendez-vous, mais le marché a subi une baisse des prix qui résulte à la fois de la guerre entre Intel et AMD et d'une surcapacité de production sur les composants mémoires. (...)

(22/02/2008 17:12:42)

AMD met en Open Source ses routines d'optimisation

AMD a décidé d'ouvrir les lignes de code de sa librairie de routines d'optimisation des performances de ses processeurs. Au total, ce sont 3200 routines qui constituent la "performance Librairy" d'AMD qui, rebaptisée pour l'occasion "Frameware version 1.0" sont mises à disposition des développeurs. Elles devraient leur faciliter l'exploitation du multithread qui devient leur quotidien avec la généralisation des processeurs multi-coeurs. Chez AMD, on précise que ces routines permettent aussi d'optimiser les performances des applications sur les processeurs de son concurrent, Intel. (...)

< Les 10 documents précédentsLes 10 documents suivants >