Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 1691 à 1700.
| < Les 10 documents précédents | Les 10 documents suivants > |
(18/09/2008 17:00:52)
VMWorld 2008 : des machines virtuelles encore plus puissantes
A VMworld, on assiste, en quelques jours, à la naissance d'un impressionnant écosystème centré sur la virtualisation. Tout le monde y va de son annonce, de préférence à vocation hégémonique et, surtout, futuriste. En plein Las Vegas, à l'hôtel Venetian, les 14 000 personnes inscrites à cette conférence, nagent en plein vaporware virtuel. Il faudra attendre jusqu'à un an pour rappeler à tous les acteurs leurs promesses de ce mois de septembre. D'ici là, quelques faits saillants à noter pour s'imprégner de l'atmosphère. Des machines virtuelles VMware encore plus puissantes WMware promet, qu'en 2009 avec ESX 4.0, ses machines virtuelles (VM) pourront exploiter chacune jusqu'à 8 processeurs virtuels et 256 Go de mémoire (contre quatre CPU et 64 Go de mémoire). Elles pourront aussi atteindre un débit d'I/O de 40 Go/s (contre 9 Gbit/s). VMware fait miroiter un pool de 4 096 coeurs Lors de sa sortie, le Virtual Datacenter Operating System (VDC-OS) pourra agréger les ressources de 4 096 coeurs de processeurs. Si l'on prend des machines équipées de quatre processeurs Xeon 7400 animés par six coeurs chacun, cela fait tout de même 170 serveurs surpuissants... Les jeux d'API vStorage promettent une administration transparente[[page]] Avec les interfaces de programmation (API) vStorage, VMware propose de centraliser l'administration de toutes les ressources de stockage au lieu d'avoir à utiliser les consoles du fournisseur concerné. Une excellente façon aussi de planifier la gestion des capacités de stockage (thin provisionning). On se doute qu'EMC, maison mère de VMware, va s'empresser d'adopter ces API. En revanche, il sera intéressant de voir commun IBM et HP vont décider de les prendre en compte dans, respectivement, Tivoli et OpenView. La console d'administration VirtualCenter portée sur iPhone La console d'administration VirtualCenter sur l'iPhone, il s'agit bien sûr d'une image, pour l'instant. Stephen Herrod, CTO de VMware, l'a utilisée pour montrer qu'il prévoyait de porter ses outils d'administration sur tout type de plateforme. Jusque-là cantonné à Windows, le client VirtualCenter va être porté sur Linux, MacOS et sur... iPhone. C'est du moins ce que laissait comprendre la diapositive qu'il a affichée. Microsoft joue les troubles-fêtes Faute de disposer -encore- d'autre arme que son hyperviseur Hyper-V et de promettre l'arrivée enfin imminente de System Center Virtual Machine Manager (SCVMM), son outil d'administration, Microsoft fait de propagande. Son site VMware Cost way too much vaut le clic circonspect. Paul Maritz, l'ex-Microsoft devenu l'homme fort de VMware, a parlé avec condescendance de "guérilla". Pour lui, le modèle que propose VMware à ses clients est celui de Google. Ils doivent pouvoir disposer d'une infrastructure redondante et répartie similaire à celle du moteur de recherche. (...)
(17/09/2008 09:13:57)Microsoft et Cray inventent le supercalculateur de bureau
Il fut un temps où le seul nom de Cray allumait des petites étoiles dans les yeux des informaticiens férus de calcul. De là à disposer un jour d'une des petites merveilles du constructeur sur son bureau... Et pourtant, si eux en ont rêvé, Microsoft, lui, l'a fait. Il dévoile avec Cray, un supercalculateur de bureau. Selon Kyril Faenov, DG de l'équipe HPC de Microsoft, le CX1 serait disponible dès octobre. Il compte jusqu'à 8 noeuds et un total de 16 Xeon d'Intel (au printemps, le fondeur est devenu partenaire de Cray, qui travaillait jusque là avec AMD.) Les Xeon sont au choix des bi ou quadri-coeurs, au choix. Chaque noeud possède jusqu'à 64Go de mémoire et l'ensemble dispose d'un maximum de 4 To de stockage. Les systèmes mixent des lames de calcul, de stockage et de visualisation en fonction des besoins. Le CX1 tournera dès octobre sous Windows HPC Server 2008 Le partenariat de Microsoft avec Cray n'est pas exclusif et l'éditeur en envisage d'autres pour mettre au point des petits frères au CX1. Certains pourraient être dévoilés en même temps que Windows HPC Server 2008. En effet, bien que compatible avec Linux, le CX1 tournera sous l'OS HPC (High performance computing) de Microsoft. Prévu initialement pour la fin de l'année, celui-ci pourrait être disponible dès lundi. Reste à savoir si Microsoft, qui n'a jamais percé dans le domaine, répondra aux attentes d'un secteur particulièrement exigeant. Pour l'instant, les deux partenaires n'annoncent aucune mesure de puissance pour la machine. Compact, le CX1 est destiné aux applications de simulation et modélisation, particulièrement gourmande en puissance. Le projet pourrait paraître incongru, mais ces applications longtemps réservées aux chercheurs et aux scientifiques se répandent de plus en plus hors des laboratoiresdans l'industrie pour la conception de produits, dans la finance pour anticiper, dans l'animation vidéo pour modéliser les images, voire même dans le commerce pour simuler le comportement des clients dans les magasins, etc. Enfin, même si le CX1 s'installe sur le bureau et ne prend que peu de place, ce n'est pas un netbook. Il faudra compter entre 20000 et 60000 $ pour s'en offrir un. Mais pour un supercalculateur, c'est un vrai prix d'ami. (...)
(12/09/2008 14:43:48)NEC, huitième à se rallier derrière IBM pour le 32 nm
NEC est la huitième société à rallier les rangs des partenaires d'IBM pour mettre au point et exploiter un procédé de gravure de semiconducteurs en technologie CMOS avec un pas de masque de 32 nm. Le constructeur japonais se place au douzième rang des fabricants de processeurs. L'objectif est d'entrer en production en 2010. L'industrie des semiconducteurs aborde actuellement la phase de montée en charge des chaînes de production en 45 nm. Et IBM se pose en chef de file d'un consortium qui unit ses forces face à Intel, le numéro un mondial qui fait seul la course technologique en tête. 1,5 Md$ supplémentaires investis en R&D Mi-juillet, IBM a annoncé investir 1,5 Md$ supplémentaire dans la recherche sur les semiconducteurs. Il a réuni autour de lui Chartered Semiconductor (Singapour), Freescale (Etats-Unis, ex-Motorola), Samsung Electronics (Corée, premier producteur mondial de mémoire) et les Européens Infineon Technologies et STMicroelectronics. Notons que Toshiba (Japon), qui avait été le septième à rallier IBM en décembre 2007, entretenait déjà des liens de partenariats avec NEC. Hitachi s'est aussi associé à IBM sur le 32 nm, mais sur des bases différentes. Quant à AMD, sa position, proche d'IBM puisqu'il lui sous-traite la fabrication de certains composants, manque de clarté sur le 32 nm. Pour donner une idée de la dimension d'un nanomètre, un milliardième de mètre, Reuters explique que c'est la croissance d'un ongle en une seconde... (...)
(12/09/2008 13:00:37)Virtualisation : Dell optimise deux serveurs lames et une baie SAN
Dell rénove lui aussi son offre adaptée aux environnements de virtualisation. Après une première vague de serveurs racks en mai dernier, le constructeur annonce deux serveurs lames et des baies de stockage SAN iSCSI. Les serveurs PowerEdge M805 et M905 sont équipés de processeurs AMD Opteron, l'un avec deux sockets, l'autre avec quatre sockets. Ils supportent les hyperviseurs XenServer de Citrix, ESX de VMWare et Hyper-V de Microsoft, et selon Dell, le modèle M905 peut supporter jusqu'à 66 machines virtuelles en même temps. Ces serveurs sont disponibles immédiatement : le PowerEdge M805 est vendu à 1 699 dollars et le M905 à 4 999 dollars. Des services autour d'Hyper-V Dell propose par ailleurs une nouvelle baie SAN iSCSI, l'Equalogic PS5500E, qui triple la capacité de stockage du PS5500E actuel pour atteindre 576 To virtualisés administrés par une même interface. Leur prix de vente démarre à 78 000 dollars. Le constructeur a également commencé à proposer ses serveurs PowerEdge avec Windows Server 2008 et Hyper-V préinstallés en option. Il propose désormais des offres de services (évaluation, conception et déploiement) autour d'Hyper-V à partir de 15 700 dollars. (...)
(11/09/2008 09:11:06)Hyper-V et nouveaux triple-coeurs pour la rentrée d'AMD
La rentrée d'AMD s'annonce intensive sur ses deux principaux fronts : les PC de bureau et les serveurs. Côté PC de bureau, la société présente trois nouveaux Phenom triple-coeurs. Le X3 83750 Black Edition est conçu pour s'adapter aux versions les plus performantes des processeurs graphiques d'ATI (une filiale d'ADM, NDLR) et vise les « hardcore gamers » dans le grand public, et surtout les concepteurs de contenu numérique (vidéo, site Web, etc.) pour le monde professionnel. Les deux autres, les X3 8450e et 8250e, se distinguent avant tout par leur faible consommation électrique de l'ordre de 65 W pour une gravure à 65 nanomètres, plus gourmande en énergie que celle à 45 nanomètres utilisée par les puces d'Intel les plus récentes. En revanche, AMD n'a pas annoncé de date de sortie ni de prix pour ces nouveaux produits. Côté serveur, le fondeur met en avant la synergie entre les capacités de virtualisation AMD-V, intégrées à ses processeurs Opteron, et l'hyperviseur de Microsoft, Hyper-V. Les deux seront associés dans de nouveaux serveurs à destination des entreprises de taille moyenne, leur promettant une réduction des coûts, un accroissement des performances et de meilleures économies d'énergie. Sans avancer de chiffres sur les gains obtenus. Une solution qui, une fois les détails de l'offre connue, pourrait intéresser les sociétés sans département informatique dédié, ni spécialiste de la virtualisation. (...)
(09/09/2008 18:01:49)L'informatique monumentale derrière l'accélérateur de particules du CERN
Demain, 10 septembre, le CERN (Organisation européenne pour la recherche nucléaire) inaugure enfin le LHC (grand collisionneur de hadrons), l'accélérateur de particules le plus puissant du monde. Ce tunnel souterrain de 27 km, situé sur la frontière franco-suisse près de Genève, sera le lieu d'expériences de physique attendues depuis des années. Les particules seront précipitées à grande vitesse les unes contre les autres. De ces collisions naîtront de nouvelles particules censées aider les scientifiques à mieux comprendre la naissance de notre monde. Pour récupérer les résultats de ces expériences, le LHC héberge de gigantesques détecteurs (45 m de long sur 22 m de haut) remplis de cellules de mesure qui enregistrent les traces de ces nouvelles particules et les convertissent en données numériques. « Ces détecteurs correspondent à ce que pourraient être des caméras de 150 millions de pixels », explique Wolfgang von Rüden, chef du département IT du CERN. Près de 15 peta-octets de données générées chaque année Lorsque le LHC aura atteint sa vitesse de croisière, sans doute début 2009, les expériences scientifiques menées à bien seront à l'origine d'un peta-octet de données chaque seconde... Après plusieurs nettoyages successifs afin de ne conserver que les données utiles, il en restera encore près de 1 Go par seconde. « L'équivalent d'un DVD toutes les cinq secondes », note Wolfgang von Rüden, chef du département IT du CERN. A raison de 100 jours de fonctionnement environ par an, cela représente presque 9 Peta-octets de données auxquelles il faut ajouter les informations de simulation. Ce sont donc 15 millions de milliards d'octets qui sortiront chaque année des essais du LHC ! Autant dire qu'un datacenter classique, même des plus puissants, n'y suffirait pas ! Aussi, dès les débuts du projet, l'organisation a opté pour un système de grille de données et de calcul (grid). Les quantités astronomiques d'informations que les scientifiques devront étudier sont distribuées sur différents systèmes pour être stockées et prétraitées. Une grille de trois niveaux répartie sur tous les continents [[page]]L'infrastructure serveur compte trois niveaux. Le premier, le tier 0, installé au Cern, stocke l'ensemble des informations sur disque et sur bande magnétique (5 Petaoctets de capacité de stockage sur disque et 16 Petaoctets sur bande). Onze autres centres informatiques dans le monde constituent le tier 1 (sept en Europe dont un à Lyon, deux aux Etats-Unis, un au Canada et un à Taïwan). Chacun obtient une copie des données et des métadonnées associées (calibrage, conditions de l'expérience, etc.). Enfin, plus d'une centaine de centres distribués viennent en tier 2 (dont un à Orsay, un à Marseille, un à Nantes, un à Clermont-Ferrand, etc.) Toutes ces informations sont synchronisées en temps réel avec l'ensemble des sites distants sur des bases Oracle. Les scientifiques des différents pays travaillent ainsi sur les toutes dernières données sorties du LHC. « Nous travaillons directement avec Oracle sur la technologie Streams qui permet une telle synchronisation, explique Wolfgang von Rüden. Nous avons un projet commun avec eux, tout comme avec Intel, HP ou Siemens, par exemple, dans le cadre de l'initiative Openlab. » Des technologies poussées dans leurs derniers retranchements [[page]]« You make it, we break it, c'est ce que nous disons à nos partenaires technologiques », plaisante le responsable IT. Vous le fabriquez, nous le cassons. Une boutade qui reflète bien la réalité. « Nous poussons les technologies dans leurs derniers retranchements. Nous avons souvent les versions bêta, voire alpha, des machines, par exemple. » Le centre du CERN (tier 0) héberge des grappes de PC classiques ainsi que quelques serveurs. Les plus puissants comptent quatre quadri-coeurs Intel. « En 2009, à Genève, nous devrions avoir une grille de 100 000 coeurs, détaille Wolfgang von Rüden. Et sans doute 150 000 coeurs, dès l'année d'après. » Pour choisir les machines qui constituent ces grappes, étonnamment le CERN fait appel au benchmark SpecINT qui mesure les capacités de calcul sur les nombres entiers des PC. Alors que la plupart du temps, les applications scientifiques s'appuient sur la performance en virgule flottante. « Les performances des entrées/sorties entre machines n'ont pas tellement d'importance, justifie ainsi Wolfgang von Rüden. Et finalement, le calcul en nombres entiers correspond davantage à notre charge de travail que le calcul en virgule flottante. Les analyses de données auxquelles les scientifiques procéderont impliquent davantage de comparaisons de données que de calculs en virgule flottante. » Une grille sous Linux avec un gestionnaire inspiré du projet EGEE [[page]]La grille fonctionne sous un Linux appelé Scientific Linux. Il s'agit d'une version compatible au niveau binaire avec la distribution de Red Hat, dont le noyau a été cependant quelque peu modifié par le CERN. Le système de gestion de la grille est un environnement Open Source qui s'appuie entre autres sur les techniques du projet Globus mais aussi sur des développements du CERN dans le cadre du projet européen EGEE (Enabling Grids for E-sciencE) qu'il chapeaute. Le réseau interne s'appuie sur Ethernet et le backbone sur du 10 Gbps. Quant aux liens entre les sites, sans surprise, il s'agit de fibre dédiée. « Nous avons besoin de marge pour nos communications, raconte Wolfgang von Rüden. Si un centre a un problème quelconque de transmission, il transfère ses données avec retard, et donc en quantité plus importante. Ce qui exige davantage de bande passante. » Ce sont environ 2 Go de données qui transitent chaque seconde sur les réseaux entre les centres de données. « Mais nous avons déjà eu, lors des essais, des pointes à 3 ou 4 Go. » Economiser l'énergie et l'espace, Green IT oblige Il est à noter qu'avec une telle infrastructure, le CERN surveille sa consommation électrique et donne, lui-aussi, dans le green IT. Dans ses appels d'offre, s'il regarde évidemment le prix des machines, il tient également compte « de la consommation électrique par rapport à la puissance de calcul fourni, ainsi que d'autres paramètres tel que le volume occupé ou la connexion au réseau, ajoute Wolfgang von Rüden. Cela nous permet de favoriser les fournisseurs qui offrent des solutions plus écologiques. » Le centre de calcul date des années 70 et consomme environ 4,7 MW avec une charge utile inférieure à 3 MW. « Il a été adapté aux besoins du LHC, mais dans les limites du possible, regrette le responsable IT. Et il est loin d'être aussi efficace que des solutions modernes. » Le CERN mène des études pour un nouveau centre plus adapté et plus performant qui verra le jour probablement vers la fin de 2011. Reste que demain, parmi les 6 000 employés du site genevois, 350 informaticiens assisteront avec fierté, mais forcément un peu d'angoisse, à l'inauguration. Ils ont passé des heures et des jours à mettre en place l'infrastructure informatique du LHC. Ils ont réalisé deux tests grandeur nature, en février et en mai, qui ont duré chacun quatre semaines. Alors pour eux, le Graal n'est sans doute pas le Boson de Higgs, la particule chérie des scientifiques, mais tout simplement le bon fonctionnement de la grille. (...)
(09/09/2008 16:30:01)PHL Soft propose un IDE écrit en PHP pour l'AS/400
Utiliser le langage PHP, très répandu pour la mise au point d'applications Web, comme levier pour amener les développeurs vers la plateforme AS/400 d'IBM, c'est la démarche choisie par PHL Soft. Cet éditeur français s'est spécialisé dans les solutions destinées au serveur de Big Blue -renommé au fil du temps iSeries, puis System i et, désormais, Power Systems i. A l'occasion du prochain salon Serveurs et Applications, fin septembre, à Paris, il lancera officiellement un environnement de développement intégré (IDE) écrit en PHP, destiné à construire des applications de gestion. Une version gratuitement téléchargeable L'IDE PHP400 est décliné en deux versions. Pour en accélérer l'adoption, PHL Soft propose une version gratuite, Studio Express. La version payante, Studio Pro, sera quant à elle accessible sur abonnement, à partir de 1 500 euros par an pour un serveur d'entrée de gamme. Les deux offres comportent un framework de composants applicatifs, un requêteur SQL, un éditeur de texte, un gestionnaire de menus et un générateur PHP. La version disponible sur abonnement dispose en plus d'un gestionnaire de base de données, d'un atelier de développement PHP et d'un support personnalisé (support public sur la version gratuite). IBM a fait évoluer sa version de PHP « Il y a une pénurie de développeurs pour l'AS/400, rappelle Philippe Lachenko, fondateur et dirigeant de PHL Soft. En particulier, il n'y a pas de jeunes recrues connaissant le langage RPG utilisé dans cet environnement. » En outre, les éditeurs d'applications pour AS/400 souhaitent dépasser le RPG pour s'appuyer sur des outils permettant de développer des logiciels portables d'un environnement à l'autre. Ces dernières années, IBM a lui-même proposé des ouvertures, d'abord en ajoutant à son offre WebSphere des solutions Java pour l'AS/400, puis en se tournant vers le langage Open Source PHP, à la suite d'un accord avec l'éditeur Zend il y a trois ans. Pas assez complète au départ, la version de PHP adaptée pour l'AS/400 a bien évolué. « La dernière version, 5.2, comporte des fonctionnalités qui manquaient jusque-là », assure Philippe Lachenko. L'environnement intégré PHP400 sera téléchargeable début octobre sur le site PHP400.com, déjà ouvert par PHL Soft. (...)
(08/09/2008 16:33:49)Intel sort quatre Xeon quadri-coeurs moins toxiques pour l'environnement
Intel annonce quatre nouveaux Xeon quadri-coeurs dont la particularité est de ne contenir aucune substance halogène. Le fondeur ne donne aucune précision supplémentaire, mais ce produit est la plupart du temps associé aux retardateurs de flammes présents dans les ordinateurs, y compris au niveau du packaging des puces. Comme leur nom l'indique, ils empêchent les machines de surchauffer et de prendre feu. En contrepartie néanmoins, ils contiennent des substances nuisibles pour l'environnement. Les plastiques intégrant des substances halogènes rejettent des dioxines, une famille de composés chimiques toxiques, dans l'atmosphère quand les puces sont démontées et les résines brûlées. Pour cette raison, la directive DEEE (déchets d'équipements électriques et électroniques) conseille de démonter et de recycler séparément ces matières. Toutes les puces Intel seront concernées avant la fin de l'année Intel s'est fixé pour objectif de ne plus utiliser aucun packaging contenant des substances halogènes dans ses puces d'ici à la fin de l'année. C'est déjà le cas pour toute la ligne Atom depuis sa sortie cette année. Dans le même ordre d'idée, Intel avait déjà ôté tout le plomb de sa famille Penryn l'an dernier. Le plomb appartient à la liste des substances toxiques dont l'utilisation est déconseillée par la directive européenne RoHS (Restriction of Hazardous Substances). (...)
(05/09/2008 18:14:48)Mémoires : Samsung s'intéresse à SanDisk
Samsung pourrait acheter le fabricant de mémoire flash américain Sandisk. Le constructeur sud-Coréen dit en fait « considérer diverses opportunités » au sujet de Sandisk, bien que « rien n'ait encore été décidé. » Ce commentaire fait suite à un article du site d'informations coréen Edaily, qui avait évoqué une demande d'avis de Samsung auprès de la banque JPMorgan Chase concernant l'acquisition de SanDisk. En deux ans, le prix de l'action SanDisk a plongé de près de 80 $, début 2006, à 14 $ jeudi 4 septembre. Cette année, ce prix moyen, et donc la valeur de l'entreprise, ont réduit de moitié. Le rachat par Samsung modifierait sensiblement le marché de la mémoire La rumeur d'acquisition intervient alors que les deux parties s'affrontent en justice autour de la fin d'un accord de licence de brevet intervenue en avril 2006. Par ailleurs, SanDisk a des liens étroits avec Toshiba, rival de Samsung, et les deux gèrent ensemble des usines de production de mémoire flash au travers de leur co-entreprise Flash Alliance. Ils coopèrent aussi étroitement sur la conception et le développement de nouvelles puces mémoire. L'acquisition de Sandisk par Samsung entraînerait ainsi d'importants changements concurrentiels sur le marché de la mémoire. (...)
(05/09/2008 16:32:44)Microsoft, Red Hat, Sun et HP se ruent sur la virtualisation du client
Coup sur coup, Microsoft, Red Hat, HP et Sun ont donné un coup de fouet à leurs offres pour la virtualisation du poste de travail. L'enjeu est de taille. Non seulement, les positions sont moins établies qu'au niveau des serveurs -où VMware et Microsoft vont dominer le marché, mais les perspectives sont colossales. Le but est de proposer à toutes les entreprises de réaliser d'énormes économies en centralisant (virtualisant) des postes de travail qui leur coûtent des fortunes à maintenir. De plus, c'est l'occasion de contester l'hégémonie de Microsoft. Red Hat rachète le spécialiste Qumranet L'éditeur de Windows va lancer sa propre solution d'ici quelques semaines. D'ici là, HP, Red Hat et Sun ont choisi de tirer les premiers. Hier, HP a procédé à une vague d'annonces où la virtualisation du poste de travail occupe une belle place. On notera en particulier qu'il s'est rapproché de Citrix avec l'adoption de XenDesktop au sein d'HP VDI. Chez Red Hat, on se prépare à proposer une virtualisation des postes clients en annonçant le rachat de Qumranet dont la virtual desktop infrastrucure (VDI) s'appelle SolidICE. Bien sûr, Qumranet est un adepte de Linux. SolidICE repose sur un KVM (Kernel-Virtual Machine) développé en interne, mais mis à disposition en Open source. V2.0 pour la xVM VirtualBox multi-plateforme de Sun Quant à Sun, la version 2.0 de sa xVM VirtualBox, en open source elle aussi, affirme sa vocation multi-plateforme en ajoutant le support de Windows Vista 64 bit et de Red Hat à celui des autres Windows, de MacOS, de différentes distributions de Linux (dont Ubuntu et Suse), de Solaris et d'Open Solaris. xVM VirtualBox permet de créer des VM sur des serveurs Solaris, pour tous ces OS. En grand constructeur qui se respecte, Sun accompagne ce lancement d'une offre de services et de support 24/24. La société dirigée par Jonathan Schwartz revendique 6,5 millions de téléchargements pour les versions précédentes de xVM VirtualBox. Une goutte d'eau à l'aune du potentiel du marché. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |