Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1681 à 1690.

< Les 10 documents précédentsLes 10 documents suivants >


(23/09/2008 17:09:04)

Windows HPC Server 2008 gère jusqu'à 2000 coeurs et accueille les services Web

En marge de son bilan de rentrée français, Microsoft a dévoilé son Windows HPC Server 2008 à l'occasion de la manifestation « highperformance on Wallstreet », dans les locaux de la bourse de New-York. L'OS de Microsoft destiné au supercalcul n'a plus rien à voir avec son prédécesseur Windows Compute Cluster Server 2003 qui peinait à s'exécuter sur quelques noeuds. Windows HPC Server 2008 tourne sur des environnements qui comptent jusqu'à 2000 noeuds, voire plus (à 475$ par noeud). Chacun des serveurs peut héberger un à quatre processeurs. Basé sur Windows Server 2008, l'OS devrait être disponible d'ici deux mois, mais Microsoft en propose déjà une version d'évaluation en ligne. Côté applicatif, Windows HPC Server 2008 supporte les bibliothèques OpenMP et MPI. Elles permettent de développer des applications parallèles sur des environnements de clustering (grappes de serveurs) ou multiprocesseurs. Il accueillera aussi les environnements à base de services Web. Il est à noter que Visual Studio 2008 comprend un outil de programmation parallèle tout à fait adapté, selon Microsoft. L'OS comprend aussi des outils d'optimisation de la performance applicative, des compilateurs et des débogueurs. Un environment d'administration enrichi en particulier pour la SOA Toujours selon l'éditeur, le déploiement des images systèmes a été simplifié avec Windows Deployment Service et un nouveau système d'administration surveille la montée en charge et la performance. Une « carte de chaleur » fournit ainsi à l'administrateur un état très visuel et instantané du système ainsi que de la charge des différents noeuds. Le répartiteur de taches, coeur de l'OS, travaille aussi bien avec des modules en batch que des applications SOA. Dans ce cas, les noeuds communiquent au travers des courtiers ('brokers') WCF de Microsoft qui jouent les intermédiaires (Windows Communication Foundation est la couche d'intermédiation du système). Les éléments applicatifs pourront être distribués sur des serveurs, des processeurs voire des coeurs de processeurs. Enfin, l'OS est conforme au standard OGF (Open Grid Forum), ce qui assure en particulier l'interopérabilité avec d'autres répartiteurs de taches. Cray et IBM déjà intéressés [[page]]La semaine dernière, Cray, le spécialiste historique du supercalcul, annonçait déjà une machine équipée spécialement de l'OS Microsoft. Aujourd'hui, c'est au tour d'IBM de s'intéresser à Windows HPC Server 2008. Big Blue propose des espaces de test pour l'OS au prix de 99$ sur son 'cloud', IBM Computing on Demand. Il proposera Windows HPC Server 2008 sur des unités de 14 à 16 noeuds sur des BladeCenter ou des serveurs System x avec des Xeon multi-coeurs. L'idée des deux géants est bien entendu d'offrir ces capacités matérielles et systèmes de supercalcul, à la demande, à des PME qui n'ont pas les moyens de s'offrir une telle infrastructure. Si le HPC a longtemps été réservé à de très grands comptes ou à des laboratoires scientifiques, c'est qu'il n'était accessible que sur des machines très spécifiques, imposantes et chères. Aujourd'hui, les plus petites configurations du marché s'appuient sur des puces multicoeurs, et les serveurs d'entrée de gamme sont des multiprocesseurs. Sans oublier que le cluster est devenu le roi du supercalcul. Alors, pour Microsoft, avoir à son catalogue un OS capable d'exécuter des environnements parallélisés prend désormais tout son sens. (...)

(23/09/2008 09:44:40)

Le nouveau vPro d'Intel agit aussi à l'extérieur du pare-feu

Deux ans après son lancement, la plate-forme vPro d'Intel s'étoffe. Destinée à faciliter l'administration et la sécurisation des postes de travail, cette nouvelle version se distingue principalement par sa capacité à agir sur des PC à l'intérieur comme à l'extérieur du pare-feu de l'entreprise (comme les ordinateurs des travailleurs nomades). Certaines nouveautés sont accessibles à tous les clients. C'est le cas de la touche unique d'appel pour recevoir de l'aide à distance, des maintenances à distance programmées, ou encore des remontées d'alerte même provenant de l'extérieur du réseau. Cela inclut aussi la compatibilité avec les environnements NAP de Microsoft pour s'authentifier sur un réseau sécurisé avant le démarrage complet de la machine ou l'Access Monitor, un tableau de bord permettant de régler finement les actions d'Intel AMT (Active Management Technologie) pour harmoniser les règles de sécurité au sein de l'entreprise. Des outils dédiés aux PME D'autres s'adressent plus particulièrement aux PME ainsi qu'aux revendeurs et intégrateurs ciblant ce marché. Ainsi l'Intel IT Monitor est une version simplifiée de l'Access Monitor adapté pour les entreprises n'ayant pas de service informatique dédié. Intel Multi-Site IT director s'adresse aux revendeurs européens et leur permet de fournir des services de maintenance et d'administration à distance à leurs clients PME. Enfin l'Intel Remote PC Assist Technology (la touche unique pour demander de l'aide) mettra en relation l'utilisateur dans le besoin avec un prestataire technique certifié par Intel. Dans un premier temps, ce service ne concernera que les Etats-Unis, l'Australie et la Nouvelle-Zélande, mais il devrait rapidement s'étendre dans les autres pays où Intel est présent. Cette nouvelle version concerne les processeurs Core2 Duo et Core 2 Quad installés sur des chipsets Q45 Express dotés du connecteur réseau 82567LM Gigabit. Le dc79000 d'HP, la gamme M58 de Lenovo, les Esprimo P7935 et E7935 de Fujitsu-Siemens, le Veriton 670 d'Acer et l'Optiplex 960 Dell sont les premières machines équipées de cette nouvelle version de vPRO. (...)

(22/09/2008 16:18:25)

Toshiba ampute ses objectifs de moitié pour 2008/2009

Touché par le ralentissement économique qui frappe le marché des semi-conducteurs ainsi que par l'âpreté de la concurrence, Toshiba revoit ses prévisions semestrielles et annuelles drastiquement à la baisse. Alors qu'il tablait sur un revenu d'exploitation de 70 Md¥, le fabricant japonais devra finalement éponger une perte de 30 Md¥ pour le premier semestre de l'année, dont l'exercice fiscal se clôture le 30 septembre. Le résultat net devrait subir le même sort, en basculant dans le rouge à -50 Md¥ contre un bénéfice de 15 Md¥ attendu. L'avertissement est sévère, et Toshiba ne prévoit pas d'amélioration pour l'ensemble de l'année. Le groupe nippon devra se contenter d'un bénéfice net de 70 milliards de yens contre les 130 milliards initialement pronostiqués et les 127,7 milliards engrangés un an plus tôt. En un an, le chiffre d'affaires devrait quant à lui se maintenir avec peine, en passant de 7 668 à 7 700 milliards de yens. C'est également moins bien que les 8000 milliards prévus par les analystes. Toshiba explique ce revers de fortune par « l'érosion des prix des mémoires flash NAND », dont la production est en inadéquation avec la demande réelle, en particulier pour les produits grand public. Le constructeur japonais a d'ailleurs récemment décidé de délaisser ce type de mémoires pour se consacrer au développement des mémoires 3D, en association avec SanDisk - qui vient de rejeter l'OPA de Samsung, numéro un des mémoires flash, devant Toshiba. (...)

(22/09/2008 12:10:17)

IBM étudie une nouvelle technique de gravure de processeurs en 22 nanomètres

Les puces gravées en 45 nm sont là. Celles qui bénéficieront d'un procédé en 32 nm sont planifiées pour 2009. Mais, comme d'autres, IBM envisage déjà l'étape du 22 nm. Pour y arriver, Big Blue mise sur une nouvelle technique baptisée « computational scaling » (CS). Les technologies actuelles de gravure bloquent à 32 nm Les méthodes de lithographie actuelles - sèche comme chez Intel ou par immersion comme chez IBM - s'arrêtent à la limite de 32 nm. CS contourne l'obstacle en mixant algorithmes et logiciels pour manipuler la forme des masques et les sources de lumière durant la gravure. Cette technique devait permettre d'attendre une hypothétique lithographie au rayon X (ou lithographie aux UV extrêmes, EUV) qui remplacerait les méthodes actuelles au-delà de 32 nm. Mais la lithographie au rayon X n'est pas tout à fait au point, et surtout, pas assez économique pour être utilisée à grande échelle. Pour mettre en oeuvre le CS, IBM s'associera d'abord avec deux partenaires de longue date, Mentor Graphics (une collaboration qui remonte au Power 4) et Toppan Printing. Mais il ne faut pas attendre les premières puces en 22 nm avant la fin 2011. (...)

(19/09/2008 15:05:42)

Wyse adopte une version adaptée de Suse pour ses clients légers Linux

Wyse abandonne sa version maison pour ses clients légers sous Linux pour y installer une version de Suse portée avec le soutien actif de Novell : Wyse Enhanced Suse Linux Enterprise. Avec 30% de parts de marché, Wyse est considéré comme le numéro un mondial par IDC. Il est talonné par HP depuis qu'il a racheté Neoware, spécialiste des clients légers sous Linux qui était troisième acteur du marché. Les clients légers sous Linux permettent d'accueillir des applications qui ne tournent pas sous Windows Terminal Services, le protocole pour client léger de Microsoft. La virtualisation, qui contribue à l'émancipation des couches systèmes, explique que leur part du marché des clients légers devrait passer d'une vingtaine de pour cent actuellement à plus de 30% en 2011, d'après IDC. Soit plus de 550 000 unités par an. Toujours selon IDC, entre aujourd'hui et 2011, le marché total des clients légers passera de 1 à 1,8 million d'unités sous l'impulsion de la virtualisation des SI. Rappelons que Suse est le seul Linux soutenu par Microsoft (l'intégration avec l'annuaire Active Directory, notamment, est garantie) et qu'il est aussi reconnu par SAP. Les premiers appareils de classe X (la gamme des clients légers mobiles de Wyse) devraient sortir avant la fin de l'année. (...)

(19/09/2008 12:11:49)

Nvidia va supprimer 6,5% de ses effectifs

Nvidia va supprimer plus de 6% de ses effectifs dans le monde. Mardi dernier, la direction du fabricant américain de cartes graphiques a en effet annoncé un plan de restructuration qui se soldera par 360 postes supprimés. Les premiers départs interviendront dès la fin du mois d'octobre. Les personnes concernées par ces réductions de postes pourront bénéficier d'importantes mesures d'accompagnement (conseil, outplacement), a indiqué le fournisseur californien, en précisant que le montant des charges de restructuration se situerait entre 7 M$ et 10 M$. Le fabricant a également ajouté, par voie de communiqué, que ces coupes lui permettraient de continuer à investir dans des domaines considérés comme stratégiques, tels que la technologie Nvdia Cuda (Computer Unified Device Architecture), développée en langage C, ou encore Tegra, puce tout en un pour mobile. Grâce à ce virage, Nvidia compte renforcer sa compétitivité et améliorer ses performances financières. Le remplacement des puces aura coûté 196 M$ Ce plan de suppression intervient alors qu'il y a à peine un mois, Nvidia annonçait que le remplacement de ses puces défectueuses sur des portables Dell et HPlui avait coûté la somme de 196 M$. Cette annonce s'ajoute à un contexte économique défavorable, aux réductions de prix destinées à résister à la concurrence et à certains retards dans le lancement de nouveaux produits. (...)

(19/09/2008 11:24:11)

Xeon 7400 : un six-coeurs pour la virtualisation et la consolidation de serveurs

Nehalem est peut être bientôt là, mais l'ancienne architecture de processeurs d'Intel n'est pas morte. Intel l'a utilisée pour sortir une nouvelle série de processeurs pour serveurs. Anciennement connue sous le nom de code Dunnington, cette série Xeon 7400 rassemble 1,9 milliard de transistors sur une seule galette de silicium. Elle est gravée en 45 nanomètres avec l'isolant 'high-k metal gate'. Six versions différentes du 7400 sont disponibles et les versions proposées montent jusqu'à 2,66 GHz en fréquence, tout en consommant a minima 55 watts (65 watts en moyenne pour les plus nombreuses). Le tout avec 16 Mo de cache de niveau 3 partagé par l'ensemble des coeurs et 3 Mo de cache pour chacun d'entre eux. Les prix de vente vont de 856 dollars à 2 729 dollars par lot de mille. Un socket commun, de nombreux serveurs déjà disponibles Partageant le même socket que l'ancienne génération de 7300, les Xeon 74000 peuvent s'installer sur des serveurs allant de 4 à 16 sockets. Ils disposent déjà d'une offre assez large de serveurs : Dell, IBM, Fujitsu-Siemens, Sun ont annoncé les leurs. Ces matériels seront principalement destinés à des applications transactionnelles et serviront à consolider les salles de serveurs en s'appuyant sur la virtualisation. [[page]] Sur les applications transactionnelles, Intel promet des performances de 14 (pour l'e-commerce) à 48 fois (pour les bases de données) supérieures à celles de l'ancienne génération. Côté virtualisation, le 7400 intègre les technologies VT (VT-x au coeur du processeur, VT-d pour la gestion des entrées/sorties et VT-c pour les connexions réseau). Le tout favorisant une migration fluide des machines virtuelles d'un serveur à l'autre en cas de besoin. Et permettant ainsi de réelles économies. Une économie de 430 000 euros sur la facture d'électricité Pour illustrer les capacités de consolidation de serveurs, Intel cite le cas de Turtle Entertainment, une société allemande spécialisée dans l'organisation de compétitions « d'e-sports » (jeux vidéos à un niveau professionnel ou semi-pro), hors ligne et en ligne. Jusqu'ici les 150 jeux (sur PC et consoles) accessibles en compétition à partir de leur site étaient installés sur un serveur dédié. En utilisant des serveurs dotés de Xeon 7400 et en utilisant des machines virtuelles pour chaque jeu, Turtle Entertainment a consolidé sa salle de serveurs avec un ratio de 18 pour 1. Soit une économie totale de 430 000 euros rien qu'en réduisant la facture d'électricité. (...)

(19/09/2008 11:16:30)

Microsoft voit la virtualisation en produit d'appel pour son offre d'administration

A ceux qui se demandaient comment Microsoft va faire de l'argent en proposant gratuitement son hyperviseur, Hyper-V, l'éditeur répond par la voix de Bob Visse, directeur marketing de la division serveur. « Tout l'argent dans la virtualisation se fera par le biais d'outils d'administration. L'hyperviseur est juste un utilitaire qui doit être gratuit. » Alors que Hyper-V était présenté comme une option payante de Windows Server 2008, il servira en fait de produit d'appel pour les différents outils d'administration de Microsoft concernant les serveurs, les postes de travail, les images disques ou simplement les applications. Le tout fonctionnant aussi bien pour les serveurs physiques que les machines virtuelles. Ce qui élimine le besoin de développer des logiciels comme Vmotion pour faciliter la migration des machines virtuelles. « L'ensemble de nos outils aide les systèmes à s'autoréparer et à faire des migrations automatiques. » Allant même jusqu'à la gestion de la consommation électrique. Compatible avec l'Enhanced Intel Speedstep Technology d'Intel, Hyper-V peut travailler à affiner la consommation électrique liée à la charge de travail de chaque machine virtuelle installée sur un serveur. Et pour tirer parti des six coeurs du processeur Xeon 7400, l'Hyper-V peut maintenant gérer jusqu'à 4 sockets et 24 coeurs en même temps. (...)

(19/09/2008 08:57:44)

IBM étend son programme de migration de serveurs à ses System z

IBM a décidé d'étendre à ses grands systèmes son programme de migration depuis des serveurs concurrents vers sa propre gamme. Il ouvre ainsi au System z le Migration Factory Program, jusque là réservé à ses autres serveurs, les Power Systems. « Réduire la complexité de l'administration, rationnaliser les actifs et ... déployer une informatique plus verte ! » Les arguments de Big Blue reprennent les qualités connues de ses mastodontes, en repeignant certaines d'entre elles d'une indispensable petite couche de vert. Ainsi, comme le rappelle le géant, un System z10 EC équivaut en puissance à quelque 1500 serveurs x86 mais occupe 85% d'espace en moins et réduit d'autant les coûts énergétiques. De l'évaluation de la consolidation à la validation de la migration Le programme Migration Factory pour System z comprend des évaluations gratuites pour une démarche de consolidation de serveurs ou le support à une migration SAP. Il intègre des services de migration logicielle (portage, migration du code, contrôle des risques associés à une migration applicative) et l'intégration du middleware. Bien sûr, IBM y ajoute des mises à jour systèmes et applicatives vers de nouvelles plateformes, l'assistance technique aux clients et aux partenaires, et enfin les tests et la validation de la migration. Rien qu'en 2008, IBM aura consacré 200 M$ et 800 employés dans le monde à ses programmes de migration de serveurs. Il aurait tort de ne pas en investir une partie sur les mainframes. On ne cesse depuis le début du millénaire de répéter que le mainframe n'est pas mort. Pour le prouver, IBM rappelle que son C.A. dans le domaine a plus que doublé depuis 2000. (...)

< Les 10 documents précédentsLes 10 documents suivants >