Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 1331 à 1340.
| < Les 10 documents précédents | Les 10 documents suivants > |
(21/07/2009 15:17:48)
Google ouvre un datacenter non climatisé en Belgique
Google a récemment ouvert à Saint-Ghislain en Belgique un centre informatique refroidi uniquement à l'air libre. Uns solution qui réduit les coûts en énergie mais qui fait néanmoins quelques sceptiques. Le refroidissement est l'un des problèmes majeurs pour les administrateurs de centres informatiques, les équipements nécessaires ayant un impact à la fois sur les coûts d'exploitation et sur l'efficacité énergétique. De nombreux opérateurs de datacenters cherchent donc maintenant à refroidir à l'aide de l'air ambiant. Yahoo par exemple a récemment dévoilé un nouveau centre informatique près des chutes du Niagara qui s'inspire des poulaillers : il utilise des persiennes en guise de murs pour permettre au vent de circuler dans la zone abritant les équipements informatiques. Habituellement ce genre de site est équipé de refroidisseurs de secours pour les jours les plus chauds. Mais le centre informatique de Yahoo comme celui de Google en sont dépourvus, n'utilisant que l'air libre. La météo prévoit des températures élevées seulement 7 jours par an Selon le site spécialisé 'Data Center Knowledge', Google espère utiliser les conditions météo locales de Saint-Ghislain (Belgique) comme un facteur déterminant de sa stratégie de gestion du centre informatique. Les opérations sur le site de Saint-Ghislain ont débuté fin 2008, et le climat de la région devrait permettre un refroidissement à l'air libre durant quasiment toute l'année. Les ingénieurs de Google estiment que la température extérieure dépassera le seuil acceptable pendant en moyenne seulement 7 jours par an. Les centres désactivés en cas de températures trop importantes [[page]] On estime que Google utilise ses centres informatiques autour de 26 °C, alors que les températures dans cette région varient de 18,8 °C à 21,6 °C en moyenne en été. Quand il fera trop chaud, Google désactivera les équipements du centre, transférant la charge de travail à d'autres centres informatiques. Quelques experts se demandent si cette capacité à transférer les charges de travail d'un centre informatique vers un autre ne résultera pas en une stratégie de gestion énergétique calquée sur le mouvement de la Lune, où les opérateurs de datacenters transféreraient les charges de travail d'un centre à l'autre au fur et à mesure de la journée, pour ne faire travailler les datacenters que la nuit. D'autres évoquent les risques liées à l'absence de contrôle de l'air ambiant : des particules liées à un incendie pourrait endommager les disques durs. De même, l'humidité pourrait nuire aux équipements. E-shelter, qui a conçu le datacenter inspiré du poulailler pour Yahoo, salue ce genre d'initiative, mais estime pour sa part que les entreprises utilisatrices ne sont pas encore prêtes à prendre ce genre de risque. (...)
(15/07/2009 11:57:49)Trimestriels : les résultats d'Intel dans le rouge après l'amende de Bruxelles
L'amende infligée à Intel par la Commission européenne se ressent sur les résultats du deuxième trimestre du fondeur. En mai, Bruxelles a condamné Intel à payer 1,06 Md€ (1,44 Md€) pour avoir abusé de sa position dominante sur le marché des microprocesseurs. Conséquence de cette charge, le résultat net du groupe s'effondre et bascule dans le rouge à -398 M$, soit environ 2Md$ de moins qu'il y a un an. Sans ce lourd poste de dépense, Intel indique qu'il aurait enregistré un bénéfice de 1 Md$. Le chiffre d'affaires affiche lui aussi un sérieux coup d'arrêt, avec un recul de 15% par rapport à la même période de l'année dernière, à 8 Md$. Le groupe tient néanmoins à présenter les choses d'une manière positive en soulignant une progression séquentielle du CA. Mieux, selon le PDG Paul Ottelini, ce deuxième trimestre « reflète l'amélioration des conditions sur le marché des PC avec la plus forte croissance entre les 1er et 2e trimestres depuis 1988 et de grands espoirs pour le second semestre ». C'est essentiellement la demande émanant du grand public qui a dopé la production d'Intel au T2, les commandes des entreprises restant faibles. Celles-ci devraient rebondir l'an prochain, si l'on en croit Paul Otellini, à la faveur de renouvellement de parcs et d'un fort intérêt pour les processeurs basés sur l'architecture Nehalem. La version 8 coeurs du Nehalem-EX devrait voir le jour en 2010 et, selon une source proche d'Intel, une nouvelle déclinaison du Xeon devrait apparaître le mois prochain pour les serveurs. Le groupe table sur un chiffre d'affaires de 8,5 Md$ au 3e trimestre. (...)
(15/07/2009 12:01:04)WPC 09 : Azure gratuit jusqu'en novembre, puis à partir de quelques cents de l'heure
Azure est désormais pourvu d'une tarification. L'offre de cloud computing de Microsoft reste gratuite jusqu'en novembre, dans sa version CTP (Community technology preview). Son lancement officiel interviendra à l'occasion de la PDC 2009 (Professional developers conference) et là, il faudra sortir la calculette - et pas seulement pour comparer la conversion dollars/euros par rapport au taux de change international. La facturation sera en effet assez complexe, d'abord parce que l'offre d'informatique en ligne de Microsoft se décompose en trois grandes familles : les capacités de traitement et de stockage (Windows Azure), la base de données relationnelle en ligne (SQL Azure), et les fonctionnalités en ligne de type middleware et développement (.Net Services). Pour Windows Azure, les tarifs seront de 12 cents de l'heure pour la capacité de calcul, de 15 cents par gigaoctet et par mois de stockage et de 1 cent pour 10 000 requêtes effectuées dans la base. Pour SQL Azure, une 'Web Edition' donnera droit à 1 Go pour 9,99 $, tandis qu'une 'Business Edition' offrira 10 Go pour 99,99 $. Les .Net Services seront facturés 15 cents pour 100 000 messages échangés. A tout cela s'ajoutent les frais de bande passante, calculés sur la quantité de données entrant et sortant d'Azure sur une période de 30 jours, à raison de 10 cents par gigaoctet entrant, et 15 cents par gigaoctet sortant. Une offre spécialement étudiée pour séduire les partenaires Vu la savante complexité de cette facturation à l'usage, et partant le caractère assez imprédictible de la facture finale, Microsoft explique qu'il exposera lors du lancement commercial un mode forfaitaire. Autrement dit, un bon vieux retour à la Software Assurance, avec « des ristournes reflétant le niveau d'engagement » du client. Il est vrai qu'un des intérêts du cloud pour une entreprise, par rapport à de l'outsourcing notamment, c'est de pouvoir arrêter un engagement n'importe quand. Si le client est engagé dans une relation forfaitaire, cette incertitude - pour le fournisseur, en l'occurrence Microsoft - disparaîtra. A noter aussi que les abonnés à la formule MSDN Premium bénéficieront d'avantages pour assurer leurs développements sur Azure, et les partenaires de Microsoft auront pour leur part un rabais de 5%. Des intégrateurs pourraient ainsi avoir un certain intérêt à mutaliser leurs développements, en s'appuyant sur Azure pour la partie infrastructure, et en proposant leurs logiciels en ligne aux entreprises, en mode Saas (Software as a service). En présentant l'offre mardi, à l'occasion de la WPC (Worldwide partners conference de La Nouvelle Orléans), Bob Muglia, président de la division Serveur et outils de Microsoft, a d'ailleurs clairement expliqué que le caractère différentiateur de cette offre résidait dans la capacité de Microsoft à aider ses partenaires à bâtir leurs offres. (...)
(06/07/2009 18:05:33)La demande en mémoire DDR3 en forte croissance
La demande pour la DRAM DDR3 augmente en même temps que l'intérêt des constructeurs pour l'efficacité énergétique et les performances de la mémoire. L'augmentation est telle que la part de marché de cette dernière génération de DRAM pourrait atteindre 30% avant la fin de l'année et dépasser ainsi la DDR2. Cette dernière génération de DRAM consomme environ 60% de puissance électrique de moins que celle qui l'a précédée tout en offrant environ deux fois sa bande passante, selon Sylvie Kadivar, directeur associé du marketing DRAM chez Samsung Semiconductor. La faible consommation énergétique des DDR3 prend toute sa dimension avec les nouvelles puces destinées aux laptops, d'une part, et celles qui équipent les fermes de serveurs, d'autre part. Ainsi, selon la banque d'investissement Crédit Suisse, les processeurs à très faible voltage (CULV consumer ultra-low voltage) d'Intel destinés aux portables et les Xeon 5500 (Nehalem) des serveurs font partie de ces siliciums qui tirent la DDR3 vers le haut du marché. Ainsi au Computex Taipei 2009 qui s'est tenu en juin, presque tous les laptops à base de puces à très faible voltage et toutes les cartes mères de PC qui ont été présentés et qui sortiront cette année utilisaient de la DDR3. Avec la DDR3, les prix de la DRAM retrouvent le chemin de la hausse Qui plus est, le prix de la DDR3 est d'ores et déjà abordable, et devrait encore chuter avec l'augmentation de la production. Il faut rappeler que globalement, les prix de la DRAM ont tellement chuté que la plupart des fabricants perdent de l'argent sur chaque puce vendue. Les tarifs ont décru depuis deux ans à la faveur d'une frénésie de construction d'usines et de la surproduction qui s'en est suivie. Depuis, la faillite de certains fournisseurs et la réduction de la production entamée par d'autres auraient pu changer la donne. Mais c'était sans compter avec la crise qui a affecté la demande de nouveaux PC, de serveurs et de portables, et par ricochet, celle de la mémoire. Seuls les prix des DDR3 ont finalement retrouvé le chemin de la hausse. Ils ont atteint un pic la semaine dernière avec une fourchette de 1,50 à 1,70 $ pour une puce de 1Gb (gigabit), et le prix devrait continuer d'augmenter en juillet selon DRAMeXchange Technology, observateur de ce marché. A l'inverse, le prix de la DDR2 est tombé de 1,34 $ le Gigabit en mai à 1 $ aujourd'hui. (...)
(06/07/2009 16:44:28)Le système spécialisé de HPC Project met le calcul scientifique à portée des PME
La jeune société française HPC Project met sur le marché ses systèmes intégrés Wild Systems spécialisés dans le calcul haute performance. Cette offre est destinée à rendre les environnements de simulation accessibles aux PME. Pour atteindre cet objectif, la start up a misé à la fois sur un matériel couplant processeur et accélérateur graphique haut de gamme et sur un middleware Open Source de parallélisation des traitements sur de très grandes quantités de données. Ces systèmes « s'adressent plutôt à des entreprises qui n'ont pas d'équipes IT », précise Pierre Fiorini, PDG fondateur de HPC Project, et ne devraient coûter que quelques dizaines de milliers d'euros. Côté logiciel, la jeune entreprise se focalise sur la parallélisation de traitements identiques appliqués à des ensembles de données différents. Cette méthode est plus simple que la parallélisation de calculs différents qui, par ailleurs, convient particulièrement au traitement de très grandes quantité de données. Il s'agit par exemple de la simulation de phénomènes physiques, courante dans l'industrie, mais aussi d'applications comme le datamining qui applique des calculs statistiques à d'importants flots de données. Comme le rappelle Pierre Fiorini, ces environnements concernent « la finance, la médecine, les modèles statistiques, les biotechnologies (pour la représentation de phénomènes chimiques), les sciences de l'ingénieur (aéronautique, automobile, etc.) et même l'audiovisuel ». Un projet Open Source issu des travaux de l'Ecole des Mines pour la parallélisation HPC Project a choisi de s'appuyer sur un projet Open Source issu des travaux que mène l'Ecole des Mines depuis près de 20 ans. La jeune pousse a donc lancé une plateforme idoine avec le Centre de recherche informatique (CRI) de l'Ecole. Celle-ci analyse le code, identifie les parties qui peuvent être parallélisées et... les parallélise. HPC Project livrera des versions stabilisées et packagées de cet outil dont il assurera aussi le support. Le middleware sera utilisable aussi bien pour les OS que pour les applications. Pour alimenter son offre en logiciel de simulations, l'entreprise compte nouer des partenariats avec certains éditeurs du monde du HPC, à qui il proposera un accès privilégié à ses technologies. Certains sont déjà intéressés comme les canadiens Presagis (simulation multi-agents pour le secteur de la défense) et Parallel Geometry (modélisation), ainsi qu'un Français, spécialiste de la finance et du calcul scientifique, dont HPC Project ne dévoile pas encore le nom. Presagis proposera aussi l'offre de la jeune pousse française au travers de son propre réseau de distribution. Afin de ne pas voir les prix des ses systèmes flamber, HPC Project fait en sorte d'obtenir des accords de licence adaptés avec ces éditeurs. Un accélérateur graphique Tesla couplé avec deux Xeon 5500 Du côté matériel, la start up française a aussi misé sur l'originalité en concevant des systèmes composés de deux quadri-coeurs Xeon 5500 (Nehalem) d'Intel d'une part et un GPU Tesla de Nvidia d'autre part. Toute la stratégie matérielle de la jeune entreprise s'appuie sur ce couplage entre des puces standards et un processeur spécialisé sur lequel sont déportés les calculs intensifs. C'est justement pour assurer ce type de fonctions que le spécialiste du traitement graphique Nvidia a mis au point les Tesla, processeurs multi-coeurs (240 coeurs par processeur avec une architecture parallèle Cuda). A noter qu'avec de telles machines, HPC Project a dû intégrer la notion d'économie d'énergie Des ventilateurs spécifiques et un mode d'organisation des flux d'air limitent ainsi la dissipation de chaleur et la consommation électrique. Enfin, la jeune firme est à l'initiative d'un rassemblement d'acteurs de la simulation depuis la représentation d'images de synthèse jusqu'à la simulation de phénomènes aérodynamiques, par exemple. HPC Project Simbiosis a pour but de promouvoir l'usage de la simulation. Aujourd'hui, les membres sont plutôt des acteurs de petites tailles comme Optis (Toulon, représentation de la lumière), Presagis, Bionetics (simulation de comportement des plantes jusqu'à la représentation de grands espaces naturels), Realfusio (Représentation photoréaliste aéronautique), etc. Mais Intel, Nvidia et Microsoft font aussi partie de l'initiative. Pierre Fiorini assure par ailleurs être en discussion avec les entreprises françaises du secteur, comme Dassault Systèmes ou ESI. (...)
(03/07/2009 17:46:31)Les chutes du Niagara alimenteront le prochain datacenter Yahoo!
Yahoo! a révélé cette semaine son intention d'installer son prochain datacenter à Lockport, dans l'état de New-York. Rien de très original, si ce n'est que 90% des serveurs seraient alimentés par la puissance hydroélectrique des chutes du Niagara. Qui plus est, le datacenter devrait, comme cela se pratique de plus en plus, être complètement refroidi à l'air ambiant, profitant du microclimat local. Le design du bâtiment s'apparenterait à celui d'un poulailler (il s'appelle le 'computer coop' par analogie avec le 'chicken coop'). Inutile ainsi pour Yahoo ! d'investir dans un système de climatisation coûteux et gourmand en électricité. Selon le numéro deux de la recherche en ligne, le PUE (power usage effectiveness) de l'ensemble devrait à peine dépasser 1,1, attestant de son extrême efficacité énergétique. (...)
(29/06/2009 17:26:48)Facebook critique les performances des nouvelles puces Intel et AMD
« Où sont les gains de performances promis ? » Telle est en substance la question que pose Jonathan Heiliger, vice-président en charge des opérations techniques chez Facebook. S'exprimant publiquement jeudi dernier lors de la conférence Structure de San Francisco organisée par GigaOm Network, il a pris à partie Intel et AMD en les accusant d'avoir survendu les capacités de leurs derniers processeurs pour serveurs : « Ce qui nous a le plus surpris, ce sont les gains de performances des nouvelles architectures des puces qui sont inférieures à ceux attendus. Nous ne voyons pas avec nos applications les progrès dont Intel et AMD se vantent dans la presse, affirme-t-il. Et, en ce moment même, nous cherchons à comprendre pourquoi. » Mais les fondeurs ne sont pas les seuls à subir les foudres de Jonathan Heiliger. Il s'adresse aussi aux constructeurs de serveurs qu'il accuse de ne pas vendre de produits adaptés aux besoins spécifiques de sociétés comme la sienne ou Amazon. « Nous avons des applications plutôt homogènes, qui nécessitent des serveurs bon marché avec une très bonne efficacité énergétique, explique-t-il. Et cela ne doit pas se traduire que par une nouvelle alimentation, mais c'est tout le système qui est concerné, jusqu'au processeur. » Si ce coup de gueule se justifie, certaines voix s'élèvent déjà pour défendre Intel et AMD, en conseillant à Facebook de revoir le code de ses applications qui s'appuient principalement sur PHP et MySQL, et donc ne pouvant profiter pleinement des systèmes multicoeurs et multithreadés les plus récents. (...)
(26/06/2009 16:14:17)Le marché européen des serveurs baisse plus encore au deuxième trimestre
La dégringolade du marché des serveurs en Europe est en ligne avec celle qui existe au niveau mondial, selon les derniers chiffres d'IDC. Pour ce trimestre, qui s'achève dans quelques jours, IDC table sur une baisse de 39,3% du CA à 2,9 Md$ et sur une chute de 30% des livraisons à moins de 500 000 unités. Cette baisse trimestrielle est la quatrième consécutive. Elle succède à la baisse de 34,3% du CA au trimestre précédent. IDC estime que l'activité a atteint un niveau plancher. Mais le marché, qui se comparera bientôt aux premiers trimestres en récession, ne devrait pas connaître de croissance avant le troisième trimestre 2010. Dans cette estimation globale, les serveurs x86, tirés par la demande de serveurs lames et de projet de consolidation, reprendront de la vigueur plus rapidement que les autres segments de marché. (...)
(24/06/2009 13:25:43)Top 500 : les supercalculateurs en moyenne deux fois plus puissants qu'il y a six mois
Les deux supercalculateurs les plus puissants de la planète n'ont pas été détrônés dans les six derniers mois. Dans son édition du mois de juin, le classement Top 500 place, comme en novembre 2008, les systèmes Roadrunner de IBM et Jaguar de Cray sur les deux plus hautes marches. Installés tous deux aux Etats-Unis, ils affichent des puissances de calcul respectives de 1,105 Pflops et 1,059 Pflops (un petaflops équivaut à un million de milliards d'opérations par seconde), inchangées au cours du semestre écoulé. Le podium est complété par un nouveau venu : le BlueGene/P, de IBM, baptisé Jugene, est installé au centre de recherche allemand Forschungszentrum de Jülich et atteint 825,5 Tflops. Ce même centre accueille également Juropa, le système HPC de Bull qui se hisse à la 10e position du classement. Ces deux derniers sont les seuls du top 10 à franchir les frontières des Etats-Unis. Si les deux systèmes installés au sommet de la hiérarchie établie par le Top 500 n'ont pas vu leur puissance s'accroître au cours des six derniers mois, cela n'est pas le cas de l'ensemble des supercalculateurs. Au total, les 500 systèmes du classement affichent une puissance cumulée de 22,6 Pflops, soit près de deux fois plus qu'en novembre 2008. Ainsi, le supercalculateur le moins puissant du classement, avec ses 17,1 Tflops, aurait été classé à la 274e place il y a six mois. Chez les constructeurs, HP est largement représenté avec 212 systèmes présents dans le Top 500, devant IBM (188), Cray et SGI (20 chacun). L'immense majorité (80%) des systèmes est équipée de processeurs Intel, qui voient leur présence s'accroître par rapport à novembre 2008, au détriment des puces estampillées IBM (55 dans le Top 500, contre 60 il y a six mois) et Opteron d'AMD (43, contre 59). (...)
| < Les 10 documents précédents | Les 10 documents suivants > |