Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1791 à 1800.

< Les 10 documents précédentsLes 10 documents suivants >


(06/06/2008 16:40:39)

Antitrust : la plainte d'AMD contre Intel examinée en 2010

Initialement prévu en avril 2009, le procès intenté par AMD contre Intel n'aura lieu qu'en février 2010. AMD accuse Intel de pratiques anticoncurrentielles : selon le plaignant, Intel aurait menacé des entreprises en Asie, en Europe et en Amérique du Nord de mesures de rétorsion si elles devenaient clientes d'AMD. Toujours selon AMD, Intel aurait poussé des clients comme Dell, Sony, Gateway et Hitachi à signer des accords exclusifs en échange d'avantages financiers. Intel avait répondu après le dépôt de la plainte, en 2005, qu'AMD ne pouvait s'en prendre qu'à lui-même pour expliquer son retard en parts de marché. Si Intel a en effet reconnu ajuster parfois ses prix à la baisse, le fondeur indique qu'il ne doit son succès qu'à ses capacités d'innovation et de production. La procédure engagée par AMD n'est pas la seule à laquelle Intel doit faire face. Le fabricant de processeurs a ainsi été condamné pour abus de position dominante en Corée, et il est dans le collimateur de l'Etat de New York ainsi que dans celui de la Commission européenne. (...)

(05/06/2008 10:18:23)

Paris offre un supercalculateur de 147 Tflop au Cines

La France et l'Europe fourbissent leurs armes pour devenir des acteurs de poids sur la scène des supercalculateurs. A l'occasion des journées Ter@tec sur le calcul haute performance, au Génocentre d'Evry, Valérie Pécresse, la ministre de la Recherche, a ainsi annoncé l'acquisition d'un cluster destiné au Cines, le Centre informatique national de l'enseignement supérieur, à Montpellier. D'une puissance de 147 teraflops - soit 147 000 milliards d'opérations en virgule flottante par seconde - le supercalculateur a coûté 9 M€ à l'Etat et devrait, selon la ministre, porter à 470 Tflop la capacité de calcul de la recherche académique. Une puissance atteinte notamment grâce aux améliorations apportées aux clusters installés au sein du CEA, du CCRT (Centre de calcul recherche technologie), de l'Idris (Institut du développement et des ressources en informatique scientifique) et du CNRS. Avec ses 147 Tflop, le supercalculateur du Cines se classe en 3e position du classement Top 500, qui recense les machines les plus puissantes du monde. Sur la première marche du podium, l'indéboulonnable Blue Gene d'IBM trône depuis 2004 et affiche une capacité de 478 Tflop. Ce chiffre risque cependant d'être prochainement balayé, après que Roadrunner aura pris son service. Lui aussi mis au point par IBM, ce cluster devrait être le premier de l'histoire à franchir le cap du petaflop. Une capacité impressionnante qui doit constituer, selon Valérie Pécresse, la prochaine étape à atteindre pour la France. Ou plutôt pour l'Europe, car un Etat isolé n'y parviendra pas. Une coopération internationale indispensable C'est pourquoi, 14 pays européens, dont la France, l'Allemagne, les Pays-Bas, l'Espagne et le Royaume-Uni, mettent en commun leurs efforts à travers le programme Prace (Partnership for advanced computing in Europe). Leur but : créer trois à cinq supercalculateurs d'une capacité minimum d'un petaflop en Europe. Doté par Bruxelles d'une enveloppe de 40 M€, Prace devra trouver d'importantes sources de financement pour atteindre ses fins. Les coûts de fonctionnement d'une installation petaflopique s'élèvent en effet entre 100 M€ et 200 M€ par an, selon Achim Bachem, du centre de recherche allemand de Jülich. Et il faut compter sur environ deux fois cette somme pour la construction. Le jeu en vaut la chandelle, si l'on s'en tient aux propos de Viviane Reding, la Commissaire à la Société de l'information, selon laquelle « les supercalculateurs sont les cathédrale de la science moderne, des outils essentiels pour repousser les frontières de la recherche au service de la prospérité et de la croissance européennes ». (...)

(04/06/2008 17:21:43)

Sun va remplacer les disques durs de ses serveurs par du SSD

Alors que les SSD font lentement leur apparition dans quelques portables et serveurs lames, et que Seagate ne les voit pas se généraliser avant plusieurs années, Sun donne un coup de pied dans la fourmilière : le constructeur a annoncé qu'il allait dans les prochains mois remplacer tous les disques durs de ses serveurs et de ses systèmes de stockage par du SSD (Solid state drive). Courant 2009, quasiment tous les serveurs seront équipés de SSD, a indiqué John Fowler, vice-président Systèmes de Sun. Les SSD sont constitués de mémoire électronique, le plus souvent du Flash. Jusqu'à présent, leur prix était jugé prohibitif comparé à celui des disques classiques ; il faut compter 460 dollars pour un SSD de 128 Go alors qu'un disque dur de 160 Go se trouve à 60 dollars, précise Krishna Chander, analyste senior chez iSuppli. Or, poursuit-il, les prix du SSD ne pourront concurrencer ceux des disques magnétiques avant trois ou quatre ans. Ce que Bill Watkins, CEO de Seagate, expliquait lui aussi il y a quelques jours. Sun juge les SSD plus performants et moins consommateurs en énergie Sun estime pour sa part que la baisse des prix sera rapide. Et que le marché adoptera le SSD très vite au vu des gains de performance - sans qu'il soit besoin de changer quoi que ce soit aux applications. L'impact sur les datacenters pourrait même être plus fort que celui de la virtualisation, prédit Sun. Graham Lovell, responsable stockage de Sun, écrit ainsi : « Cela va complètement révolutionner le marché du stockage dans les prochains 6 à 9 mois, dans la mesure où les SSD sont environ 100 fois plus rapides que les disques typiques, mais ressemblent à n'importe quel autre sous-système. » Mieux, Sun se pique d'être éco-responsable, et « les SSD, précise Graham Lovell, consomment environ un cinquième de la puissance des disques ordinaires ». Les prix n'ont pas encore été annoncés, mais Sun a déjà indiqué que les utilisateurs pourront tester les versions avec SSD pendant 60 jours gratuitement. (...)

(04/06/2008 14:52:33)

9 000 serveurs coupés sur ordre des pompiers texans

Au Texas, samedi dernier, en fin d'après-midi, le datacenter H1 de l'hébergeur The Planet a dû s'arrêter. A la suite de l'explosion d'un transformateur électrique et d'un début d'incendie, les pompiers ont exigé une coupure électrique générale. Bien qu'aucun des 9 000 serveurs installés n'ait été touché. Autrement dit, The Planet s'est vu interdire d'activer ses équipements redondants en raison du risque qu'auraient fait courir aux pompiers des équipements électriques en activité. Lundi matin, 6 000 serveurs avaient été réactivés et les 3 000 restants l'ont été à la fin de la journée. Cet incident montre que l'intervention des pompiers peut constituer un cas de force majeure puisqu'il interdit l'activation des systèmes de secours. Il semblerait toutefois qu'une autre faille soit apparue dans l'organisation de The Planet : l'absence de duplication des serveurs DNS. Une fois le système coupé, il faut une période de propagation pour que les informations permettent à nouveau un routage efficace. Autre souci évident : la localisation des équipements destinés à poursuivre l'activité dans un lieu unique. The Planet administre plus de 40 000 serveurs dans différents datacenters qui animent plus de 3 millions de sites Web. (...)

(03/06/2008 17:51:11)

Le marché grand public nourrit la demande pour les semi-conducteurs

Le succès des terminaux GPS et la demande de mémoire flash pousse le Gartner Group à réviser à la hausse ses prévisions à propos du marché des semi-conducteurs. D'une hausse estimée à 3,4% en février, on passe à 4,6% pour l'ensemble de l'année 2008 qui devrait s'achever sur un CA de 287 Md$. Pour l'heure, la demande du grand public pour les produits numériques reste forte et ce en dépit du climat de crise économique aux Etats-Unis. Le Gartner tempère toutefois son regain d'optimisme en soulignant que les stocks ne cessent d'augmenter depuis la mi-2007, date à laquelle il situe le début de la crise économique aux Etats-Unis. (...)

(03/06/2008 15:58:01)

La morosité américaine pèse sur la croissance du marché des serveurs

Selon IDC, la croissance du marché mondial des serveurs au premier trimestre a continué de ralentir. Le CA total a presque atteint 13 Md$ (+ 3,5%). Toutefois, la croissance en volume (+ 7,8%, à plus de deux millions d'unités) reste forte. La responsabilité de ce tassement du marché revient aux machines X64, seulement en croissance de 4,4% à 7 Md$, le plus faible taux depuis sept trimestres. En valeur, le marché américain a même diminué pour la première fois depuis le début du siècle. L'Europe reste un marché très actif, surtout si on mesure son activité avec un dollar sous-évalué... Les volumes pour les machines X64 restent importants : 1,9 million d'unités (+ 8,5%). Les serveurs lames continuent de progresser à vitesse grand V : + 53,7% du CA à 1,2 Md$. Cette technologie, qui supporte tant les processeurs X64 que les autres types de CPU, pèse désormais 9,2% du CA total des serveurs. Les serveurs lames avec processeurs X64 constituent 95% des ventes. HP (49,9% du marché) et IBM (30%) ne laissent que 20% à leurs concurrents. Le créneau de la grosse centaine de milliers de serveurs "non X64", mais qui génère 6 Md$ de CA, voit ses ventes progresser de 2,5%. IBM s'arroge près de 42% du secteur, HP 22,7% et Sun 19,5%. La meilleure croissance depuis trois ans des ventes des IBM System z, à 1,1 Md$ (+ 10,4%), contribue beaucoup au maintien de la domination d'IBM sur ce marché. Le monde Unix continue de s'effriter - au profit de Linux [[page]] Le monde Unix continue de s'effriter. Le CA baisse de 0,8% à 4 Md$, malgré la forte demande pour les machines les plus puissantes (plus de 250 000$) qui, comme les System z, profitent des vastes projets de consolidation et de virtualisation. Si l'on se focalise sur les systèmes vendus entre 25 000 et 250 000 $, où l'on trouve les petites plateformes Unix et les AS/400 d'IBM, le CA chute de 7,2%. Windows Server progresse de 4,2% à 5,1 Md$. Ce qui fait gagner 0,2 point de part de marché à l'OS de Microsoft. La plateforme Linux continue de gagner du terrain avec une hausse du CA de 8,4% à 1,8 Md$. Linux doit donc plus cannibaliser les systèmes Unix ou traditionnels que les serveurs Windows. Au classement général d'IDC, HP passe devant IBM. Il le doit à une hausse de 4,2% de son CA total à 3,77 Md$. IBM, qui progresse moins vite que le marché, atteint 3,65 Md$ (+ 2%). Tous les autres fournisseurs progressent moins vite que le marché à deux exceptions : Dell bondit de 9,4% à 1,6 Md$ et Fujitsu Siemens de 7,8% à 821 M$. Sun est le seul des cinq premiers fournisseurs à voir son CA baisser. Il perd 1,8% à 1,3 Md$. (...)

(03/06/2008 11:45:50)

Bull et APC s'associent sur des audits complets de datacenters

Bull et APC Schneider Electric se lancent ensemble dans des audits à 360° des datacenters de leurs clients afin d'en améliorer la performance globale. Les deux acteurs associeront leur savoir-faire pour proposer une analyse et une optimisation de l'infrastructure informatique mais aussi de la climatisation et de l'alimentation électrique. Des éléments que les entreprises continuent de gérer séparément la plupart du temps. « Pour nous, il est désormais indispensable d'avoir une approche globale des centres informatiques, confirme Bruno Pinna, directeur marketing de Bull. Et pour cela, nous nous sommes très vite rapprochés d'APC qui a la compétence matérielle et logicielle pour l'analyse thermique et énergétique. » Bull, maître d'oeuvre de ces audits, proposera ses prestations classiques d'analyse de charge applicative, de taux d'occupation des machines, etc. APC Schneider Electric, lui, déploiera ses compétences dans la mise en place et l'exploitation électrique et thermique de datacenters et ses connaissances des bonnes pratiques en la matière. Ainsi, mieux vaut que la climatisation soit installée au plus près des points chauds (pour éviter le réchauffement de l'air au cours de sa circulation dans la pièce). Il est aussi intéressant de définir des allées de confinement dans lesquelles on « enferme » en quelque sorte les dos des serveurs, gros émetteurs de chaleur. Des logiciels d'audit thermique et électrique « Le grand intérêt de cette prestation globale, précise Bruno Pinna, c'est bien de pouvoir mesurer la quantité d'électricité entrante mais aussi celle qui arrive au datacenter et la répartition électrique dans ce dernier, la transformation éventuelle du voltage, le passage de courant continu en discontinu et vice versa, etc. Ce que l'on appelle le ratio d'efficacité énergétique. » [[page]] Or, APC Schneider Electric dispose depuis l'an dernier de logiciels d'analyse et d'anticipation de la consommation thermique et énergétique d'un datacenter. Change Manager et Capacity Manager mesurent cette performance des éléments existants afin de l'optimiser et de savoir s'il faut désactiver une partie de la climatisation ou lui ajouter un économiseur d'énergie par exemple. L'industriel prépare également pour fin 2008 un outil qui simulera globalement l'évolution d'un centre informatique et son impact sur sa consommation. L'informatique ne consomme que 35% de l'énergie «Dans un datacenter, 40% de l'énergie est consommée par la climatisation et 25% par l'infrastructure électrique, rappelle Paul-François Cattier, vice-président France de APC Schneider Electric. Seuls les 35% restants concernent l'informatique. Sans compter que les conditions dans lesquelles le centre fonctionne changent en permanence : les conditions extérieures, la température entre le jour et la nuit, le pourcentage de la charge informatique, etc. » Et si la sensibilité au changement climatique n'est que rarement une motivation pour les entreprises, le coût croissant de la consommation des datacenters devrait les conduire vers des prestations comme celles de Bull et APC. « Un centre qui consomme 1 MW revient à 1,3 M€ par an, estime Paul-François Cattier. » Quant aux audits proposés, si l'on en croît Bruno Pinna, ils ne dépasseraient pas quelques jours-hommes. Le jeu en vaudrait donc la chandelle... Le prestataire français souhaite d'ailleurs proposer progressivement une gamme de prestations autour de l'efficacité énergétique du datacenter. Après la conception, l'audit et l'optimisation, il prépare pour fin 2008 des services d'exploitation de cette dernière. Ou comment faire en sorte qu'un centre informatique s'auto-gère pour rester dans une fourchette de consommation donnée, par exemple. (...)

(02/06/2008 18:09:44)

Foire d'empoigne autour de la plateforme mobile de demain

La prévision de vente de cinq millions d'Asus Eee PC pour cette année fait fantasmer tout le monde. Intel en tête. Avec son Atom, le numéro un mondial des processeurs assure enfin disposer de la puce idéale (plus adaptée que le Celeron, qui motorise déjà l'Eee PC), à la fois puissante et économe, pour donner naissance à des produits portables qui viendraient combler le fossé entre portables ultralégers et smartphones. Adepte de la méthode Coué, Paul Ottelini, PDG d'Intel, voit se profiler d'ici à 2012 des marchés pour l'Atom qu'il évalue à rien de moins que 40 Md$. Téléviseurs nomades, PC portables ultra-mobiles, "netbooks" pas chers, comme la nouvelle version de l'Eee PC, et toute une kyrielle de produits encore à imaginer justifient son enthousiasme. Mais Intel n'est pas seul à vouloir imposer ses processeurs. Il va devoir se colleter avec Via et ARM. Via Technologies livre déjà son Nano, plus économe et moins contraignant que l'Atom pour les intégrateurs. HP fait partie de ses acheteurs. Quant à Sony, il a été séduit par la plateforme OpenBook de Via qui utilise son processeur C7. [[page]] Du côté d'ARM, les processeurs de ce spécialiste du design équipent, depuis des années, les téléphones les plus sophistiqués et leur confèrent une autonomie sans comparaison avec les puces Intel. Malgré tous les efforts d'Intel, l'Atom est encore loin d'atteindre les 10 heures d'autonomie. Or, Nvidia (60% du marché mondial des processeurs graphiques) fait miroiter avec son jeu de composants Tegra, à base d'ARM, 26 heures de vidéo non stop ! Texas Instruments, Qualcomm et Samsung ont aussi choisi ARM pour leurs futurs produits. Il reste à tous le défi de résoudre le dilemme entre un portable ultraléger et un téléphone mobile sophistiqué, à transformer en réalité le concept intermédiaire de MID (Mobile Internet Device). Si l'on fait abstraction de la puissance industrielle d'Intel, le fondeur apparaît bel et bien comme un challenger. L'offensive qu'il conduit avec Atom est la dernière d'une série dont toutes les précédentes ont été des échecs. Au fil des années, les noms ont changé, passant d'Ultramobile à UMPC sans oublier Origami, mais Intel s'est toujours heurté à la difficulté de proposer autre chose d'un micro maigrichon. (...)

< Les 10 documents précédentsLes 10 documents suivants >