Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1421 à 1430.

< Les 10 documents précédentsLes 10 documents suivants >


(06/04/2009 17:55:31)

Les ventes de composants en chute libre, selon iSupply et la SAI

iSuppli a révisé à la baisse ses chiffres définitifs sur le marché des semiconducteurs au quatrième trimestre 2008. En novembre dernier, le cabinet tablait sur une baisse du chiffre d'affaires du secteur de 2%. Elle a été en fait de 5,2%. Et, si l'on en croit l'estimation de la SIA (Semiconductor Industry Association) sur le mois de février, le secteur s'installe dans la récession. iSuppli constate que la demande de mémoire s'est effondrée fin 2008 ; des composants omniprésents dont la demande donne le pouls de toutes les industries électroniques et informatiques. Samsung, numéro un des mémoires a ainsi vu ses ventes 2008 fondre de 14,2%. Intel, focalisé sur les processeurs, n'a dû supporter qu'une baisse de 0,7% de son chiffre d'affaires. Les 10 acteurs parmi les 25 premiers qui ont échappé à une baisse de leur CA le doivent soit à des opérations de croissance externes, pour quatre d'entre eux, soit, pour les six autres, au fait qu'ils sont "fabless". Autrement dit, qu'ils sous-traitent leur production et qu'ils ont pu, pour les Japonais, profiter d'un taux de change favorable avec le dollar. -30,4% sur les semiconducteurs en février iSuppli indique, par ailleurs, qu'il s'est vendu 77,9 millions de micros au dernier trimestre 2008, soit à peine 2,2% de plus qu'au quatrième trimestre 2007. Pour donner une idée de l'ampleur du ralentissement subi en fin d'année, le cabinet indique que, sur l'ensemble de l'année 2008, les livraisons ont progressé de 11,6% à 299,4 millions d'unités. Le mois de février dernier n'a apporté aucun signe de reprise. Bien au contraire. La SAI estime que les ventes de semiconducteurs ont chuté de 30,4% à 14,2 Md$ par rapport à l'an dernier. Elle constate même une baisse séquentielle par rapport au mois de janvier, -7,6%, lequel était déjà en baisse de 28,6% par rapport à 2007 et de 11,9% par rapport à décembre 2008. En moyenne glissante sur trois mois, la baisse dépasse les 32% à 14,17 Md$. La SIA indique que son industrie s'enfonce dans "une des plus profondes corrections de son histoire". (...)

(02/04/2009 16:43:10)

Les datacenters de Google se composent bien de conteneurs

C'est confirmé, Google utilise bien, depuis 2005, des modules composés de conteneurs pour construire ses datacenters et a commencé à élaborer son prototype en 2003. Aujourd'hui, les dernières versions, refroidies par circuits d'eau, peuvent contenir jusqu'à 1160 serveurs et consomment 250 KW. Ce qui donne une densité de consommation de plus de 8 KW par m². La température ambiante peut dépasser les... 27 degrés dans les parties les plus chaudes. Les conteneurs sont préassemblés avant d'être livrés sur les sites. C'est fin 2006 que Sun a présenté Blackbox, projet de commercialisation d'un module de datacenter fondé sur un conteneur. Depuis, le Sun MD20 a été rejoint par des produits d'IBM, de Rackspace, de Verari, de HP et d'autres. (...)

(02/04/2009 17:02:30)

Rackable Systems devrait acheter SGI, placé sous chapitre 11

A l'heure où le monde informatique piaffe d'impatience en attendant une probable vente de Sun à IBM, c'est un autre dinosaure du monde Unix qui disparaît. Achevé par la crise, SGI a été mis en faillite hier, 1er avril. Dans la foulée, le bien nommé Rackable Systems a offert de l'acheter pour 49 petits millions de dollars. SGI avait déjà été placé sous le chapitre 11, version américaine de la faillite, en mai 2006, mais s'en était alors sorti. Cette fois, la situation économique a eu raison du spécialiste du calcul haute performance avec affichage graphique 3D haut de gamme, déjà sur une courbe dangereusement descendante depuis des années. Le CA 2008 de SGI, un exercice fiscal clos en juin dernier, avait chuté de 24%. La perte opérationnelle se montait alors à 127,2 M$ (elle était de plus de 100 M$ en 2007). Pour son deuxième trimestre 2009, SGI avait encore perdu 49,2 M$. Le constructeur s'est perdu en chemin. Silicon Graphics, de son nom complet, est né en 1982, à l'heure bénie où les génies de l'informatique bâtissaient le futur tranquillement installés dans des garages. Il a petit à petit perfectionné ses solutions serveurs, OS et logiciels à destination de clients exigeants dans des industries très spécifiques comme le film ou le pétrole. Ces secteurs ont des besoins très pointus, à la fois en calcul et en affichage 3D de très haute qualité. L'inventeur d'OpenGL Puis, en 1992, SGI s'est distingué avec OpenGL. Cette API d'affichage graphique 3D est devenue un standard et reste au coeur de la plupart des applicatifs de ce type aujourd'hui. Pour preuve, les travaux engagés il y a quelques jours autour d'un standard pour le web 3D s'inspirent d'OpenGL. Par la suite, à la fin des années 90, SGI a pris la décision d'abandonner ses machines à base de processeurs Mips (processeurs de type Risc, par opposition aux architectures x86) qui tournaient sous son propre Unix, Irix. L'entreprise entreprend alors une difficile transition vers le couple Intel/Windows NT, nettement moins différenciateur. On peut imaginer que l'acquisition de SGI par Rackable Systems, spécialiste du datacenter (serveur et stockage en rack), devrait rassurer les clients de SGI. Les deux constructeurs ont des gammes tout à fait complémentaires. Comme le déclare Mark Barrenechea, président et CEO de Rackable Systems, dans le communiqué de l'annonce : "Ensemble, nous pensons que nous pouvons devenir une entité bien plus forte avec des produits et des gens formidables qui offriront une réponse plus efficace à au sein de nos marchés respectifs et de façon transversale. » La transaction annoncée hier doit encore être validée par la Bankruptcy Court américaine, et devrait être confirmée d'ici 60 jours. Gageons toutefois que la disparition de SGI, présent sur le marché depuis 27 ans, laissera à beaucoup un léger goût de nostalgie. (...)

(31/03/2009 18:17:47)

Nehalem fait (enfin) sa sortie officielle

Cette fois, il est là. Le processeur Nehalem d'Intel est officiellement disponible sous son vrai nom, le Xeon 5500. On avait presque oublié qu'il n'avait pas fait sa sortie dans le grand monde, puisque depuis plusieurs semaines, nombreux sont les constructeurs à avoir présenté des machines qui exploitent ces nouvelles puces : Apple et Lenovo pour les postes de travail, Cisco, Dell, HP et IBM pour les serveurs. La ligne complète de Xeon 5500 se décline en 17 versions, des quadri-coeurs pour la plupart avec 4 à 8 Mo de cache de niveau 3. Leurs fréquences s'échelonnent entre 1,86 et 3,20 GHz et Intel présente une série de mesures impressionnantes. Le nouveau Xeon affiche ainsi des performances de calcul en entiers de 240 SPECint_rate_base2006 et en virgule flottante de 194 SPECfp_rate_base2006 (sur Primergy de Fujitsu). L'exécution d'Oracle 11g sur un ProLiant DL370 de HP donne 631 766 tpmC et le test du module de gestion commerciale SAP SD sur serveur IBM System x 3650 M2 montre une capacité à gérer 5 100 utilisateurs. Du côté de la virtualisation, la puce obtient 23,55 pour 16 « mosaïques » (ensembles de six machines virtuelles) au test VMmark (mesure des performances en virtualisation) sur plusieurs plateformes. Il faut dire qu'Intel a porté une attention toute particulière au sujet. La fin du Front Side Bus Outre sa conception en 45 nm et l'utilisation du nouvel isolant high-K metal gate, Intel a truffé sa puce d'innovations technologiques. Les constructeurs de serveurs l'avaient laissé entendre et le fondeur confirme : le 5500 sera un bien meilleur gestionnaire de mémoire que ses prédécesseurs, une des raisons qui en ferait une puce particulièrement adaptée à la virtualisation. Le Nehalem tire ses capacités d'un contrôleur mémoire installé directement sur la puce. Le Front Side Bus qui jouait l'intermédiaire entre processeur et mémoire a définitivement disparu. Par ailleurs, le processeur sait désormais gérer de la DDR3 et un total de 144 Go. Pour mieux s'adapter à la virtualisation, Intel propose aussi une nouvelle génération de sa propre technologie VT (Virtualization Technology) et une assistance matérielle à la gestion des entrées/sorties. Des outils censés doubler les performances de la virtualisation et réduire de 40% les délais de latence en la matière. Le TurboBoost, lui, règle la fréquence des coeurs en fonction de la charge qui leur est allouée. Les processeurs travailleront ainsi au-dessus de leur fréquence nominale (jusqu'à 3,33 GHz) pour accélérer certaines tâches, et a contrario, seront mis en veille afin de consommer un minimum lorsqu'ils n'ont rien à faire (10 watts). Un focus particulier sur la performance énergétique [[page]] Parmi les autres outils qui augmentent les performances, l'hyper-threading exécute jusqu'à huit threads (instructions élémentaires) par Xeon 5500. Le QPI (QuickPath Interconnect) de son côté, permet une connexion plus rapide avec les autres processeurs et composants de la machine. Pas de surprise en outre, Intel s'est focalisé sur la performance énergétique de son Xeon 5500. Il est donc capable de s'installer dans un mode veille très économe grâce au Turboboost, mais aussi de se remettre en fonctionnement beaucoup plus rapidement, préservant là encore l'énergie. Les interrupteurs électriques intégrés (Power Gates) savent, eux, désactiver l'alimentation de certains coeurs. Avec l'Intelligent Power Technology, l'OS peut aussi placer les processeurs, les chipsets et la mémoire dans leur état le moins gourmand pour une tâche donnée. Intel estime que dans une même enveloppe énergétique, un serveur à base de Xeon 5500 devrait être 2,25 fois plus performant que ses prédécesseurs. La plate-forme serveur Verari Systems VB1305 équipée du Nehalem obtient un score de 1943 ssj_ops/watt dans le cadre de la mesure de rendement énergétique SPECpower_ssj2008 (mesure du rendement énergétique). Un record si l'on en croit Intel. Ce test fait travailler tous les éléments du serveur, y compris en exploitant le multiprocessing, installe une machine virtuelle Java, un compilateur JIT, etc. Le fondeur livrera des versions à 95, 80 et 60 watts pour des modèles en rack ou des lames. (...)

(31/03/2009 16:09:21)

Fujitsu veut doubler ses ventes de serveurs x86

Sur le marché des serveurs x86, Fujitsu ambitionne de faire deux fois mieux seul qu'associé avec Siemens. En novembre, le Japonais avait annoncé reprendre pour 450 M€ les 50% de Siemens dans leur co-entreprise Fujitsu Siemens Computers, fondée il y a 10 ans. La transaction donne naissance à partir de demain à Fujitsu Technology Solutions (FTS). Crédité d'une part d'environ 4% du marché mondial des serveurs x86 avec 270 000 unités, FTS compte doubler ses ventes en deux ans pour atteindre 500 000 unités, soit 7% de part de marché en 2010. L'objectif est d'atteindre 10% à plus long terme. FTS dispose d'une part du marché des serveurs x86 de 14% au Japon, où il a réalisé 50% de ses 6,6 Md€ de chiffre d'affaires pour l'exercice clos en avril 2008. A terme, il y vise 30% et la première place d'où il compte déloger NEC. En attendant, ce dernier est loin derrière les trois premiers acteurs du marché au niveau mondial. HP, Dell et IBM s'accaparant à eux trois près de 80% des ventes de serveurs x86. Pour réussir son pari, FTS table sur une réorganisation censée réduire ses coûts, et sur les synergies qui seront mises en place avec les autres ressources informatiques du groupe Fujitsu. Ce dernier est toujours actif sur le marché des grands systèmes. Il entretient aussi un partenariat très actif avec Sun sur les serveurs Sparc et dispose d'une offre de stockage. En Europe, FTS dément tout projet de licenciement et affirme qu'il restera sur le marché PC, mais en se concentrant sur le haut de gamme. La marque Fujitsu Siemens sera abandonnée pour celle de Fujitsu. FTS a annoncé que la R&D sur les serveurs lames se fera en Allemagne et que le site d'Augsburg sera, avec celui de Fukushima au Japon, une des deux seules usines de production de serveurs x86. (...)

(30/03/2009 16:37:24)

Microsoft n'aime pas l'Open Cloud Manifesto

L'Open Cloud Manifesto est le dernier mouvement en date à se positionner en promoteur de standards pour le cloud. Ce genre d'association s'apprécie à l'aune de ses membres. Parmi les trente-huit sociétés qui adhèrent à ce projet, visant à faciliter l'interaction entre les différentes approches de cloud, on note les présences, de Cisco, d'EMC, d'IBM, de Juniper, de Novell, de RackSpace, de Red Hat, de SAP, de Sun et de VMware. L'Open Cloud Consortium s'est aussi joint à ce Manifesto. En revanche, on notera l'absence d'Amazon, d'Oracle et de Microsoft. Ironie de l'histoire - ou manoeuvre stratégique - Microsoft, sous la plume de Steve Martin, directeur de l'administration de la plateforme développeurs, accuse l'Open Cloud Manifesto de ne pas être ouvert : « Il nous semble qu'une société, ou quelques-unes, préféreraient contrôler l'évolution du cloud computing au lieu de chercher à trouver un consensus parmi tous les intéressés (y compris les utilisateurs) par l'entremise d'un process "open" ». A chacun de juger. (...)

(30/03/2009 16:11:53)

Du Nehalem pour onze nouveaux serveurs HP

Tout comme Cisco et Dell il y a quelques jours, et IBM aujourd'hui, HP enrichit sa gamme avec des serveurs à base de processeurs Nehalem. La puce Intel, officiellement devenue le Xeon 5500, ne sera officiellement annoncée que ce soir, 30 mars. HP ne donne donc pas plus de détails sur les performances de ses onze nouvelles machines que ses concurrents. La nouvelle offre G6 (Génération 6) se décompose en cinq modèles en rack (HP ProLiant DL380, DL370, DL360, DL180 et DL160), trois lames (BL 490c, BL 460c et BL 280c) et trois tours (ML370, ML350 et ML150). HP a fixé ses prix d'appel entre 900 et 2300 euros, sans préciser les configurations. Faute de donner de plus amples détails, HP met l'accent sur un module d'alimentation identique pour tous ses G6. Trois versions permettent d'étager la puissance délivrée entre 460, 750 et 1200 watts en courant alternatif. Un dernier modèle délivre 1200 watts en courant continu 48 volts. HP rappelle aussi l'existence de HP Dynamic Power Capping, annoncé l'an dernier, ainsi que celle du module Virtual Connect Flex-10 Ethernet pour ses serveurs lames. Celui-ci assure le partitionnement d'un port Ethernet 10 Gbit/s en quatre interfaces réseau. Par ailleurs, citant des sources internes, HP affirme qu'en dix ans, la part du prix d'achat dans le coût total de possession (TCO) des serveurs a été divisé par deux pour ne plus représenter que 20%. A l'inverse, la facture énergétique (consommation directe et climatisation) et l'administration pèseraient 80%, contre 60% en 1998. Les serveurs G6 peuvent bénéficier du prêt à taux zéro qu'HP, associé à De Lage Landen, propose pendant deux mois aux PME. (...)

(27/03/2009 16:20:51)

Ensemble, Oracle et HP se sont aussi intéressés à Sun

A entendre Paul Otellini, PDG d'Intel, Sun chercherait à se vendre depuis des mois. La mise sur la place publique par le Wall Street Journal de tractations entre IBM et le constructeur californien, qui ne s'est jamais remis de l'explosion de la bulle Internet en 2000, n'était en fait qu'un des épisodes d'une triste quête. Citant une source anonyme, mais apparemment bien renseignée, notre confrère britannique The Register semble confirmer ces dires en indiquant qu'Oracle s'était associé à HP pour scinder Sun. L'éditeur aurait proposé 2 Md$ pour les activités logicielles de Sun, HP s'offrant tout le reste. La proposition d'IBM de tout reprendre pour 6 à 8 Md$ aurait mis un terme aux tractations en cours. Tant de monde autour du lit du malade Sun indique bien que la société ne souffre pas d'un manque de technologies, bien au contraire, mais de son incapacité à en tirer des profits. Un profil qui rappelle celui de Digital avant son rachat par Compaq. Fondée sur l'Open Source et le logiciel, la stratégie de Jonathan Schwartz, qui a succédé à Scott McNealy mi-2006 à la tête de Sun, n'a pas payé. Mais le dirigeant avait-il le choix ? Il a tout de même persisté à investir 1,8 Md$ en R&D, soit plus de 13% des 13,3 Md$ de chiffre d'affaires annuel de Sun. A titre de comparaison, IBM ne consacre que 6,1 Md$ à la R&D, soit 6% de ses 98,78 Md$ de chiffre d'affaires annuel. Oracle convoitait MySQL, les outils d'annuaire et de gestion d'identités Oracle voulait jeter son dévolu sur MySQL, le seul SGBD Open Source qui lui fait de l'ombre, ainsi que sur les outils d'annuaire et de middleware de Sun, sur la gestion des identités et, aussi, sur les laboratoires où est né Java. Même en Open Source, l'environnement Java continue d'être très activement soutenu par Sun. Les intérêts d'HP étaient moins clairs, Solaris étant autant à la peine que son propre HP-UX pour résister à la montée en puissance des plateformes Windows/ Linux. L'accord ayant peu de chance d'aboutir, on peut ironiser à peu de frais sur l'intérêt qu'aurait eu HP à récupérer la ligne de processeurs SPARC alors que l'Itanium d'Intel peine à évoluer au même rythme... HP aurait aussi pu être intéressé par le savoir-faire de Sun en matière de stockage et de réseau. (...)

(27/03/2009 12:31:28)

Gartner sur le cloud : la croissance est là, mais ses voies sont incertaines

Dans un marché atone, il est bon de savoir qu'un segment technologique devrait générer de la valeur. Et ce sera le cas des services en ligne, hébergés dans le cloud, à en croire Gartner : « Les revenus mondiaux des services de cloud computing devraient dépasser 56,3 milliards de dollars en 2009, soit une hausse de 21,3% par rapport à 2008. Le marché devrait atteindre 150,1 milliards de dollars en 2013. » Mais attention, tout le monde n'entend pas la même chose par cloud ; sur ces 150,1 Md$, la location de puissance de calcul des datacenters, par exemple, ne représentera que 6,80 Md$. En prévision de son prochain « Outsourcing & IT Services Summit » de Londres en juin, l'institut a donc fait le point sur un marché aux contours... difficiles à définir. C'est d'ailleurs tout l'intérêt de cette étude que de catégoriser les choses. Par « cloud services », ou services accessibles via le cloud computing, Gartner entend : - les services applicatifs métier (tels que paie, publicité, impression, e-commerce, etc., ainsi que les services d'accès aux données), qui représentent le plus gros de ce marché : 38,9 Md$ en 2008, 119,3 en 2013. Sachant que l'essentiel de ce marché est lié à la publicité en ligne, qui devrait encore compter pour la moitié du chiffre d'affaires de ce segment en 2013, selon Gartner ; - les applications en ligne payantes (typiquement, les offres Saas), qui connaîtront une des plus fortes croissances annuelles, passant de 5,04 Md$ à 20,2 Md$ entre 2008 et 2013 (soit un taux de croissance annuel moyen de 32%) ; - les services d'infrastructures applicatives (environnements de développement et middleware en ligne), catégorie parfois appelée Apaas (Application platform as a service), qui, pour Gartner, devraient rester un marché restreint, passant de 1,52 Md$ à 2,26 Md$ de 2008 à 2013 ; - les services d'infrastructure (serveurs, OS, systèmes virtualisés, etc., mais aussi services de supervision), qui comptent pour un petit 0,96 Md$ en 2008 et atteindront - malgré un taux de croissance annuel moyen de presque 54% - seulement 8,37 Md$ en 2013. Gartner crédite en effet cette catégorie d'un potentiel important, mais lui prédit un démarrage lent. Attention aux inquiétudes des utilisateurs, et aux échecs passés Il faut noter aussi que Gartner ne prend en compte, pour réaliser ces estimations, que le chiffre d'affaires généré par la vente de services aux entreprises. Cela exclut la vente de matériels ou de services professionnels aux fournisseurs de services en ligne. De même, l'outsourcing traditionnel est lui aussi exclu. Dans ses recommandations, l'institut s'adresse particulièrement aux fournisseurs de services en ligne - ou à ceux qui voudraient le devenir - et les incite à se montrer très prudents. D'une part, pour ne pas créer trop de « hype », du bruit autour d'un phénomène qui sera lent à prendre. Ensuite, parce que beaucoup d'obstacles restent à écarter du chemin. Les inquiétudes des utilisateurs sur la confidentialité, la conformité, les performances, les possibilités d'intégration, etc., doivent être prises en compte. Gartner encourage aussi à faire autant attention à son modèle économique et à sa stratégie de tarification qu'à son infrastructure technique. Enfin, si on excepte le marché de la publicité en ligne, qui a fait ses preuves avec Google, et celui de l'e-commerce, qui a fait ses preuves avec Amazon ou Ebay, les segments liés aux services en ligne sont très nombreux et tous ne connaîtront pas le succès. Il faut se souvenir, note Gartner, « de la lente évolution des nouveaux modèles de fourniture de services, de l'échec des fournisseurs d'applications hébergées (ASP) dans les années 90 et de l'émergence graduelle mais très limitée du Saas ». (...)

< Les 10 documents précédentsLes 10 documents suivants >