Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 861 à 870.

< Les 10 documents précédentsLes 10 documents suivants >


(23/09/2010 16:13:52)

Microsoft instille du calcul partagé dans Windows HPC Server 2008 R2

La dernière version de HPC (High Performance Computing) Server peut être gérée avec des outils Windows, et « s'inscrit dans la tendance qui vise à faire sortir le HPC de son statut d'infrastructures spécialisées pour les intégrer à l'ensemble du processus informatique de l'entreprise » a déclaré Kyril Faenov, directeur général du HPC Group chez Microsoft.  La mise à jour proposée peut prendre en charge des cycles de calcul sur des systèmes existants dans l'entreprise. « Le prochain Service Pack 1 mettant à jour HPC Server permettra également de l'associer à des cloud publics » a indiqué Microsoft. C'est l'administrateur système qui définit les paramètres indiquant quels cycles de calcul utiliser et décide si le processus s'effectue en arrière-plan ou s'arrête quand l'utilisateur tape sur son clavier. Les fonctionnalités sont similaires à celles du système Search for Extraterrestrial Intelligence, ou SETI@Home, qui sait utiliser la puissance de plusieurs millions d'ordinateurs là où elle est disponible pour effectuer ses calculs. Selon Kyril Faenov, le fait d'ouvrir cette possibilité à un produit basé sur Windows étendra le nombre d'utilisateur à cette technologie de puissance de calcul partagé. L'éditeur qui vise actuellement à étendre en priorité sa solution sur des clusters HPC de petites et moyennes entreprises pense que les entreprises et les gouvernements pourraient « devenir dépendants de ces systèmes de simulation et d'analyse à grande échelle ». Mais, même si HPC Server 2008 R2 est compatible avec des milliers de processeurs, Linux reste de loin le système d'exploitation dominant sur les ordinateurs très haut de gamme puisqu'il fait tourner 91% du Top 500 des super ordinateurs, laissant à peine 1% de part à Windows.

Intégrer le double boot


Selon Addison Snell, analyste chez Intersect360 Research, « la version mise à jour de HPC Server place Microsoft dans la bonne direction sur le marché du calcul haute performance. » Aujourd'hui, le constructeur Cray a déclaré que Windows HPC Server 2008 R2 serait disponible sur son supercalculateur Cray CX1 qui supporte à la fois les systèmes d'exploitation Linux et Windows. Le Cray CX1, qui coûte entre 25 000 et 100 000 dollars et accepte des processeurs pouvant accueillir jusqu'à 96 coeurs. La vitesse de calcul dépend de la configuration des processeurs et selon qu'ils utilisent ou non tous les accélérateurs GPU. « S'il utilisait des puces Intel, alors sa capacité de traitement serait probablement de l'ordre de 5 Tflops, » a déclaré Barry Bolding, vice-président de la division produit de Cray. Cette société a ajouté une capacité de double boot sur ces systèmes, car Barry Bolding indique que Microsoft a apporté à son logiciel des fonctionnalités qui rendent plus facile l'exécution de deux systèmes d'exploitation sur le même cluster. SGI, le concurrent de Cray, a également annoncé que son supercalculateur personnel Octane III ferait tourner Windows HPC Server 2008 R2.

(...)

(23/09/2010 13:25:16)

HP installera les archives de Paul McCartney dans le cloud

Les archives de l'artiste, comprenant une grande collection de pochettes de disques, des photographies, des peintures, des films et des vidéos, seront numérisées, ainsi que les masters de chansons qu'il avait interprétées avec les Beatles, les Wings, et plus encore.

La mission de HP consistera à mettre en route la technologie qui rend tout cela possible, à commencer par le transfert des supports physiques dans un format numérique haute définition. Toutes données vont ensuite migrer dans un cloud privé au profit de MPL, l'entreprise de McCartney, le tout hébergé dans les serveurs d'un datacenter. « Paul McCartney a toujours été un précurseur dans le domaine musical et HP a été à la pointe de l'innovation technologique, » a souligné Tom Hogan, responsable des ventes et du marketing chez HP.

Un patrimoine musical sauvegardé

Les documents archivés aideront peut-être les chercheurs à répondre à l'un des grands mystères de la musique populaire : comment, en moins de dix ans, un groupe de garçons ordinaires âgés de 15 ans, originaires des quartiers défavorisés de Liverpool, qui tournaient dans les kermesses pour jouer du helter-skelter et du rock-and-roll ont réussi à produire une série d'albums d'avant-garde qui ont complètement changé la culture musicale moderne ? C'est comme si en 1915, les frères Wright avait inventé le moteur à réaction !

Rien n'indique comment les fans pourront accéder à ces archives en ligne, mais, si elles sont gérées par la propre entreprise commerciale de Paul McCartney, cela risque de coûter cher. La mise en ligne de ces archives signifie aussi que l'héritage de Paul McCartney sera enfin disponible en Russie! A se demander ce qu'en auraient pensé Nikita Khrouchtchev et John Lennon !

(...)

(23/09/2010 09:04:27)

OpenWorld 2010 : Oracle se convertit à la religion du Cloud

A l'OpenWorld cette semaine, Oracle s'affiche bel et bien dans le train du cloud. Il faut dire qu'ici, impossible de faire un pas dans les allées du Moscone Center, où a lieu l'événement, sans se heurter à une pancarte faisant la publicité du cloud. Dans sa conférence, Thomas Kurian, le vice-président exécutif du Développement produits a déclaré qu'Oracle, "grâce à sa gamme complète de matériels, à ses applications et à ses technologies en sécurité et en management, était le mieux placé pour fournir des produits et des services dans le domaine du cloud computing." Selon lui, l'architecture des centres de calcul ne devrait pas reposer sur des séries de "petits blocs" parce qu'ils sont trop difficiles à gérer. Pour lui, la toute nouvelle machine Exalogic d'Oracle permet une approche plus intelligente en fournissant un guichet unique pour les logiciels et services cloud: "Cette solution "cloud in-a-box" combinant les matériels, les unités de stockage et le middleware nécessaires, permet de faire tourner tout type d'applications à grande échelle, cela avec une grande puissance de calcul", a-t-il dit. "Elle offre un environnement et une architecture uniques pour gérer les datacenters", a t-il encore déclaré. Celui-ci a également montré comment le logiciel de management d'Oracle pouvait "gérer le cloud tout entier, depuis les applications jusqu'aux disques" et fournissait aux administrateurs une photographie des indicateurs clés de performance (KPI), de même que des informations sur l'état des serveurs et sur le débit. "Les deux sont essentiels lorsque l'on passe au cloud", a-t-il souligné.

Davantage de contrôle utilisateur dans le cloud

L'intervention de Thomas Kurian concernait également la méthode utilisée par l'éditeur en matière de sécurité au sein du cloud, ce qui lui a permis, au passage, de faire la promotion de l'offre d'Oracle en matière de contrôle des identités et des niveaux de sécurité au sein de la base de données. Celui-ci a montré notamment comment les utilisateurs pourraient facilement configurer et modifier les processus de gestion dans les futures applications Fusion d'Oracle qui seront proposées sur site et à la demande. "Dans le passé, il était nécessaire de faire appel à un développeur pour apporter cette souplesse. Nous avons revu l'architecture de notre middleware pour modifier fondamentalement l'ancienne modalité", a-t-il expliqué. "Si Thomas Kurian a insisté sur les capacités d'Oracle en matière de sécurité et de gestion d'identité, c'est parce que ces fonctionnalités sont, pour le moment, généralement rarement offertes par la plupart des vendeurs de services SaaS (Software-as-a-Service)  pure-play", a relevé China Martens l'analyste du Group 451. La stratégie d'Oracle en matière de cloud computing ne semble pas inclure une offre d'IaaS (infrastructure-as-a-Service) public comme c'est le cas d'Amazon Elastic Compute Cloud (EC2). Thomas Kurian n'a pas non plus abordé des concepts tels que l'architecture SaaS multi-tenant qui permet à de nombreux clients de partager une application ou une fonction précise, sans mélanger leurs données.

Pas encore de SaaS multi-tenant

On ne comprend pas encore clairement si les Applications Fusion seront disponibles sous forme multi-tenant, une approche préférée par les fournisseurs de SaaS, car elle permet de réduire les frais généraux du système et facilite le déploiement des mises à jour pour de nombreux utilisateurs à la fois. Les applications SaaS sont généralement vendues par abonnement sur la base d'une par utilisateur. Mais Oracle semble croire qu'il sera plus rentable de s'en tenir à un modèle single-tenant pour Fusion et de maintenir le système traditionnel des licences séparément des bases de données et des autres technologies supportées. Selon Paul Hamerman, analyste chez Forrester Research, la stratégie Cloud d'Oracle apparaît comme une évolution de son service d'hébergement actuel Oracle On Demand, qui a fonctionné pendant des années. "Quand Oracle dit "Cloud", cela signifie hébergement", a t-il commenté. "Je pense qu'il y a une technologie nouvelle en jeu ici, mais la dernière du genre pour faire de l'hébergement."
(...)

(22/09/2010 13:27:13)

Cheops Technology se dote d'un datacenter pour l'informatique à la demande

La « petite » société bordelaise a pris de l'embonpoint ces dernières années avec le rachat de toutes les agences (sauf Paris) d'ARES. En passant de 23 millions à un peu plus de 59 millions d'euros de chiffres d'affaires en 2010, le PDG, Nicolas Leroy-Fleuriot s'est logiquement interrogée sur la création de son propre datacenter. Denis Damey, directeur de la division infogérance, rappelle les différents métiers de Cheops Technology « les infrastructures (comprenant PCA et PRA, supervision, ainsi que plusieurs compétences AMOA (avec la reprise des activités d'ARES), la modernisation technologique (migration vers Unix et Windows, virtualisation du poste de travail, etc.) et enfin l'infogérance ». Pour l'ensemble de ces expertises, la société d'ingénierie d'infrastructures informatiques dispose d'un réseau de partenaires relativement restreint et de toutes les certifications (HP Gold sur la partie datacenter, Microsoft Gold sur la branche réseau, etc.)

Un datacenter millésimé APC

Il y a donc deux ans, le dirigeant de Cheops Technology a choisi de tenter l'aventure en créant son propre datacenter. Son implantation a été choisie en même temps que le nouveau siège social de la société, sur la commune de Canéjan, dans la banlieue bordelaise. Denis Damey explique que pendant cette période « nous avons appris beaucoup de chose sur le sujet des datacenters, y compris sur l'aspect efficience énergétique ». Car cet aspect-là est important pour Nicolas Leroy-Fleuriot.  Le datacenter comprend donc 3 salles blanches, consommant jusqu'à 20 KvA par rack. En ce qui concerne la fourniture d'électricité, Cheops Technology a misé sur son propre transformateur de 15 000 volts alimenté par deux liaisons électriques distinctes. Un groupe électrogène a été implanté d'une capacité de 6000 l de fuel et d'une puissance de 650 KvA (soit une autonomie de 48h). En matière de PUE (Power Usage Effectivness), Denis Damey admet « aujourd'hui, nous sommes à 2,3, mais les salles ne sont pas remplies et notre ambition est d'atteindre 1,6 ou 1,7 avec une consommation de 7 à 8 KvA par rack». Pour cela, la société d'Aquitaine a misé sur APC avec son offre InfraStruXure, ainsi que sur les logiciels pour optimiser la consommation énergétique. Sur l'aspect sécurité, le datacenter est relié en fibre optique redondé (pour éviter les coups de pelleteuse) avec un datacenter appartenant à SFR, pour assurer les réplications synchrones. A l'intérieur, l'accès aux salles se fait par reconnaissance « veineuse » (à partir de la pression sanguine) et une équipe est en charge de la maintenance 7j/7. L'investissement final pour la réalisation de ce projet de datacenter de classe Tier 3 est de 3,5 millions d'euros.

Datacenter Cheops

Une offre de cloud computing

Après la mise en place d'un tel projet, le développement d'offres informatiques à la demande semblait naturel. Baptisé icod (Infrastructure Cheops On Demand), cette offre se décline en production (puissance de calcul, stockage, etc.), PRA, PC (pour fournir des VM ou de la virtualisation des postes de travail) et enfin Back-Up (stockage à la demande). Cheops Technology a fait le choix d'HP pour les différents équipements informatiques de son datacenter. Encore récente, Thierry Loiseau, responsable des opérations est très optimiste sur l'offre icod, « nos clients sont très intéressés par ces solutions, qui leur donne une grande flexibilité et une réduction des coûts ».
Outre la montée en puissance dans le cloud, Cheops Technology souhaite étendre et se renforcer dans les datacenters. Denis Damey estime qu' « un deuxième datacenter toujours dans la région de Bordeaux à moins de 40 km aurait du sens pour améliorer la réplication asynchrone et mieux gérer les PCA et PRA. Enfin, un autre à 500 km pour pallier à des sinistres majeurs pourrait aussi voir le jour ».

(...)

(22/09/2010 09:48:21)

OpenWorld 2010 : Solaris 11 Express en éclaireur

Sur OpenWorld 2010, John Fowler, vice-président de Sun désormais responsable de l'activité systèmes d'Oracle, a présenté les grandes orientations de l'OS Solaris 11 attendu en 2011. La dernière mise à jour, Solaris 10 9/10, a été livrée il y a dix jours et d'ici la fin de l'année, l'éditeur doit mettre à disposition Solaris 11 Express. Cette version intermédiaire aura vocation à donner aux développeurs, partenaires et clients d'Oracle un avant-goût de la version 11 à venir. Assortie d'un programme de support Oracle (optionnel), elle donnera accès aux dernières fonctionnalités de l'OS. Les clients auront notamment le choix d'utiliser Solaris 11 Express sur les derniers modèles de serveurs de stockage Exadata X2-8, annoncés sur OpenWorld.

John Fowler assure que Solaris 11 sera non seulement plus rapide et plus simple à déployer, mais aussi plus facile à maintenir. L'objectif est de réduire sensiblement les interruptions d'activité, planifiées ou imprévues. Le dirigeant promet des outils packagés qui seront notamment utilisés pour limiter les problèmes liés aux correctifs et aux mises à jour. Le système pourra aussi recevoir par télémétrie des informations sur les problèmes déjà identifiés par le support d'Oracle ce qui permettra de s'en prémunir avant qu'ils ne se manifestent. « Un service proactif et préemptif », a souligné l'orateur.

Un projet énorme pour Oracle

Dans le domaine des performances et des capacités d'évolutivité, John Fowler a annoncé que l'OS pourrait gérer des milliers de threads, plusieurs téraoctets de mémoire principale et des centaines de Gbps, avec une gestion avancée de la consommation électrique. Solaris 11 sera aussi un OS entièrement virtualisé, gérant les technologies de virtualisation sur les serveurs, les systèmes de stockage et le réseau, sans que les applications doivent modifier les applications qu'elles utilisent. Dans le domaine de la sécurité, l'OS va tirer parti des fonctions de chiffrement sur disque apportées au système de gestion de fichiers ZFS.

Pour John Fowler, Solaris 11 est conçu pour les prochaines générations de matériels : « Les systèmes multitéraoctets sont vraiment au coin de la rue ». Le responsable de l'activité système a tenu à réaffirmer la forte implication d'Oracle sur l'OS hérité du rachat de Sun. « C'est un enjeu énorme qui devrait contenir 2 700 projets et plus de 400 inventions ». Il résulte, selon l'éditeur, de plus de 20 millions d'heures-homme de développement et de plus de 60 millions d'heures de tests.

On se souvient que le mois dernier, Oracle avait manifesté son intention de concentrer ses forces sur cette version commerciale du système d'exploitation, au détriment de la version Open Source, OpenSolaris, pour laquelle l'éditeur a indiqué qu'il ne livrerait plus de mises à jour. Une décision qui a entraîné quelques jours plus tard la dissolution de l'OpenSolaris Governing Board, conseil d'administration externe gérant les relations avec la communauté.

(...)

(21/09/2010 17:06:21)

La start-up Cirtas Systems mixe stockage local et cloud

L'appliance Bluejet Cloud de Cirtas agit comme un système de cache local qui utilise une combinaison de DRAM, de SSD (Solid State Disk) et de disques durs tournant à 7200 trs/min. La hiérarchisation des données au moment du stockage permet une répartition des données en fonction des priorités. Le Bluejet Cloud Storage Controller sait aussi compresser et dédupliquer les données avant de les transposer hors site par le biais des Archive Services d'Iron Mountain ou des services de stockage cloud Amazon S3, en fonction des besoins en matière de stockage de données et des exigences en matière de restauration.

Bluejet, le contrôleur Cloud de Cirtas

« L'appareil se connecte au SAN du client où il est reconnu comme un disque, mais il permet à l'entreprise d'utiliser le stockage cloud au lieu d'accumuler des données sur le site, » a déclaré Dan DeCasper, cofondateur et PDG de Cirtas. « D'autres fournisseurs de services cloud seront proposés dans les versions à venir, » a-t-il ajouté. Selon le dirigeant, le Bluejet Cloud Storage Controller permet un taux de compression des données de 2:1 à 3:1 selon le type, et un taux de déduplication allant jusqu'à 50:1 pour la sauvegarde. « L'un des avantages du Bluejet Cloud Storage Controller repose clairement sur le mode de restauration des données après un crash, » a déclaré Dan DeCasper, « car l'entreprise utilisatrice n'a pas besoin d'une connectivité entre le centre de données primaire et le secondaire hors site. » En effet, si le site principal tombe en panne, l'entreprise peut ouvrir un lien vers le prestataire de services Cloud, lequel dispose d'une connexion vers le site secondaire de sauvegarde. « Donc, pour assurer la reprise d'activité après un crash, il n'est pas nécessaire de louer une ligne réseau couteuse entre les sites principaux et secondaires," »a-t-il expliqué.

Mixer local et cloud en toute transparence

Cirtas vise les grosses PME-PMI et les entreprises affichant des revenus annuels compris entre 200 millions et 10 milliards de dollars. L'appareil est proposé avec plusieurs types de contrats de support technique - un service 24H/24,  une intervention à j+1, ou un contrat premium 7jours/7. L'appareil est disponible immédiatement au prix de base de 70 000 dollars. « Le Bluejet de Cirtas rend la migration des données vers le cloud rapide et indolore, et complète parfaitement notre portefeuille de services de stockage cloud et de gestion de l'information, » a déclaré dans un communiqué Jaimin Patel, directeur des programmes de développement pour Iron Mountain. « Ensemble, Cirtas et Iron Mountain offrent à leurs clients une solution de Cloud intégrée, facile à mettre en oeuvre et à gérer, qui garantit l'accès et la sécurité des informations stockées. »

(...)

(21/09/2010 16:45:53)

OpenWorld 2010 : Oracle défie les sceptiques avec ses serveurs Sparc T3

Connu sous le nom de code Rainbow Falls, le processeur Sparc T3 intègre jusqu'à 16 coeurs, soit deux fois plus que la précédente puce haut de gamme de Sun, l'UltraSparc T2 Plus, qui a été dévoilé il ya deux ans. Pour l'occasion, Oracle a procédé à un petit changement dans  l'appellation de la marque en raccourcissant UltraSparc en simplement Sparc. Ces processeurs sont destinés aux serveurs de la série T d'Oracle qui sont animés par le système d'exploitation maison Solaris et se destinent aux applications commerciales de type base de données et logiciels d'entreprises, ainsi qu'à d'autres tâches comme les services web. Ils sont en concurrence directe avec les systèmes Unix d'IBM et de Hewlett-Packard. Cette gamme de machines Oracle est composée de plusieurs modèles : blade mono socket (voir illustration principale) jusqu'au serveur quatre sockets intégrés dans une armoire pouvant accueillir cinq racks. Les systèmes seront expédiés aux premiers clients dans une trentaine de jours a annoncé la compagnie de Redwood. Cette dernière a également confirmé que Solaris 11, la prochaine mise à jour de l'OS Unix de Sun, sera disponible en 2011.

Une doute sérieux sur l'avenir des Sparc

À une certaine époque, il n'était pas si clair que le projet Sparc T3 arrive à son terme. Lorsque Oracle a annoncé son intention de racheter Sun l'an dernier, certains avaient doctement prédit que le PDG de la compagnie, Larry Ellison, allait liquider toutes les branches perdant de l'argent chez Sun, notamment l'activité matérielle, pour se concentrer sur les actifs logiciels comme Solaris et Java.

Pour rassurer ses clients, Oracle avait dévoilé le mois dernier une feuille de route de cinq ans pour la plate-forme Sparc tout en restant très évasif quant à  la date de sortie du T3. John Fowler, le responsable de l'activité systèmes chez Oracle avait par exemple refusé de dire si la puce serait disponible comme prévu à la fin de l'année. Il semble clair aujourd'hui qu'Oracle voulait simplement profiter de son événement OpenWorld  pour faire son annonce.

Une gamme compléte du serveur blade à la boite 5U

Chaque coeur de Sparc T3 peut traiter jusqu'à huit threads simultanément, tout comme le précédent T2 Plus. Les fréquences du T3 vont jusqu'à 1,65 GHz avec le renfort de 6 Mo de mémoire cache de niveau 2, selon le site web d'Oracle. Chaque processeur dispose en outre d'un accélérateur de cryptographie pour accélérer le traitement des fonctions de sécurité. Enfin, une interface réseau10 Gigabit Ethernet accompagne d'office la puce. Les serveurs annoncés lundi incluent le T3-1, positionné pour les infrastructures web, le middleware et le développement d'applications. Le système au format 2U peut accueillir jusqu'à 16 disques durs et six cartes PCI Express ainsi qu'un maximum de 128 Go en mémoire vive.

À l'extrémité supérieure, le T3-4 est conçu pour les grandes bases de données, les importantes applications commerciales d'entreprise et les projets de consolidation de serveurs. C'est une boîte 5U qui vient avec deux ou quatre processeurs T3 à 1,65 GHz
et jusqu'à 512 Go de mémoire vive. Oracle n'a pas fourni de prix pour ces systèmes, qui comprennent également le serveur blade T3-1B.


Illustration :  John Fowler, responsable de l'activité systèmes chez Oracle, lors de la présentation du Sparc T3 à l'OpenWorld 2010.

(...)

(21/09/2010 09:33:12)

OpenWorld 2010 : Mark Hurd dévoile un Exadata plus puissant

Dès la nomination de Mark Hurd comme président d'Oracle, il y a quinze jours, il apparut évident que parmi les attributions de l'ex-PDG de HP figurerait la promotion des solutions matérielles. On s'attendait notamment à le voir soutenir Exadata, le système de stockage de base de données, optimisé pour le datawarehouse et les processus intensifs de requêtes. L'homme connaît déjà le produit puisque sa version initiale, lancée en septembre 2008, a été co-développée avec HP.

Pour son premier OpenWorld en tant que dirigeant d'Oracle, Mark Hurd s'est ainsi vu confier l'annonce d'Exadata X2-8, version 3 du système, qui repose sur deux serveurs Sun 8-socket totalisant 128 coeurs Intel et 2 To de mémoire. Comme la V2 lancée en 2009, l'offre complète réunit 14 serveurs de stockage. Elle offre jusqu'à 336 To de capacités de stockage brutes. En interne, les serveurs communiquent entre eux par des liaisons Infiniband à 40 Gb/s et avec l'extérieur via une connexion Ethernet 10 Gb/s. L'armoire comprend jusqu'à 5 To de mémoire Flash cache pour accéder aux données les plus importantes lors des transactions réclamant des temps de réponse extrêmement rapides.

Solaris 11 Express ou Unbreakable Enterprise Kernel

Les clients ont le choix d'utiliser ces machines sous Solaris 11 Express ou avec l'OS Unbreakable Enterprise Kernel qu'Oracle vient d'annoncer. Ce dernier s'appuie sur la version 2.6.32 du kernel Linux et bénéficie d'optimisations mises au point en collaboration avec les équipes de développement d'Oracle (sur la base de données, les offres middleware et le matériel). Cet OS inclut aussi un kernel compatible Red Hat, compilé directement à partir de Red Hat Enterprise Linux.

Avec l'arrivée de cette troisième version d'Exadata, la V2, qui repose sur huit serveurs 2-socket, change de nom pour s'appeler Exadata X2-2. Elle se présente maintenant comme le modèle ouvrant la gamme, existant en quart de rack, en demi-rack, en full et multi-racks. Tandis que le modèle X2-8 est d'emblée proposé dans sa version complète (full rack), présentée comme une plateforme adaptée aux traitements nécessitant des processus de requêtes très intensifs et pour les applications de datawarehouse. Dans ce dernier domaine, la concurrence promet d'être rude avec IBM qui vient d'ajouter Netezza à son catalogue, et avec Teradata.

Oracle voit pour Exadata un avenir tout tracé dans la consolidation d'applications et de bases de données multiples en cloud privé (une grande base de données couvrant plusieurs noeuds avec RAC -Real application Cluster- ou plusieurs bases de données avec le cluster RAC One Node, option disponible depuis la version 2 d'Oracle Database 11g).


Illustration : Mark Hurd, président d'Oracle (crédit photo : Maryse Gros)
(...)

(21/09/2010 11:59:15)

Yahoo ouvre un datacenter plus green aux chutes du Niagara

Situé près des chutes du Niagaria, le datacenter de Yahoo est presque entièrement refroidi par l'air extérieur circulant à travers ses longues salles pour maintenir le matériel au frais. Cela signifie que l'installation n'a pas besoin de système de refroidissement pour alimenter des climatiseurs en eau froide, en général le poste le plus énergivore des centres traditionnels. La salle informatique sera principalement alimentée par des centrales hydroélectriques du New York Power Authority, le fournisseur d'électricité public local. Le centre sera inauguré aujourd'hui par Carol Bartz, PDG de Yahoo, en présence du gouverneur de New York, David Patterson, et du sénateur américain Charles Schumer.

Ce datacenter - le plus respectueux de l'environnement construit par Yahoo - se compose de trois salles reliées à un centre d'opérations, plus deux salles encore en cours de construction. Les bâtiments, longs et étroits, ont été orientés dans le sens du vent de manière à permettre à l'air de circuler facilement. Leur forme de poulailler géant leur a valu le nom de Yahoo Computing Coop. Leur taille témoigne aussi de l'importance qu'ont pris les centres de calculs au cours des dernières années. Souhaitant encourager de meilleures pratiques énergétiques dans les datacenters, lesquels absorbent une proportion croissante de l'énergie aux États-Unis - leur consommation représentait 1,5 % il y a quatre ans et probablement plus depuis - le département américain de l'énergie a accordé une subvention de 9,9 millions de dollars à Yahoo pour financer une partie de l'installation. "Pendant les 60 dernières années, les datacenters n'ont pas beaucoup évolué, restant relativement chers et lents à construire. La transformation de ces centres en usines à données efficaces est un changement majeur," a déclaré Scott Noteboom, vice-président de Yahoo pour les opérations et l'ingénierie des datacenters.

Un PUE de 1,08

Yahoo ouvre, également dans l'état de New York, un centre d'opérations qui devrait générer 125 emplois à temps plein. Hormis son intention de limiter l'impact sur l'environnement, les motivations de Yahoo ne sont pas toutes généreuses. En installant un centre de calcul qui n'utilise que 10 % de sa puissance pour le refroidissement - comparativement aux 50% nécessaires pour certains autres centres - Yahoo peut réduire ses factures d'électricité de façon spectaculaire. L'entreprise se met également en concurrence avec Google et Microsoft qui ont fait de gros efforts pour mettre sur pied des centres plus efficaces. Yahoo a déclaré que son datacenter affichait un PUE (Power Usage Effectiveness) de 1,08, soit mieux que la moyenne nationale qui se situe aux environs de 1,9 PUE. Cet indicateur montre comment est répartie l'énergie totale consommée par un datacenter, celle directement dévolue à l'équipement informatique, et celle destinée à d'autres usages et en particulier au refroidissement. Un PUE de 2,0 signifie que la moitié de l'énergie alimente les installations informatiques, quand un PUE de 1,0 signifierait que c'est la totalité qui leur revient. L'architecture du centre de Yahoo ressemble à celle que Hewlett-Packard a commencé à produire récemment pour de gros clients. Yahoo a d'ailleurs fait une demande de brevet pour la conception, notamment pour la distribution de l'édifice et la façon dont l'air est réparti dans les salles. "La chasse aux brevets est très active en matière de conception et de construction de datacenters," a confirmé Scott Noteboom.

Une architecture plus rapide à construire

Des installations comme celles de HP et de Yahoo sont plus rapides à construire que les centres de calcul traditionnels : les éléments, fabriqués en usine, sont ensuite assemblés sur place. Yahoo prévoit d'ajouter à Lockport deux salles supplémentaires dans les six prochains mois. En temps normal, dans un centre traditionnel, il aurait fallu 12 à 18 mois pour réaliser cette extension," a déclaré Scott Noteboom. À terme, la superficie totale de l'édifice atteindra 36 000 mètres carrés, soit un espace pouvant accueillir 50 000 serveurs. "Le site pourrait éventuellement alimenter 100 000 serveurs avec des salles supplémentaires," a encore ajouté Scott Noteboom. Le centre gérera notamment les services Mail, Messenger et Flickr de Yahoo.

"Ce type de datacenter coûte moins cher à construire qu'un centre traditionnel," a déclaré Christina Page, directrice en stratégie énergétique chez Yahoo. "On pense en général que les installations vertes sont plus chères à construire, mais ce n'est toujours vrais," a-t-elle ajouté. Les serveurs situés à l'intérieur sont des produits "off the shelf" logés dans des racks standards, avec en plus l'expérience propre que Yahoo apporte en matière de conception de serveurs. Quand il fait est trop chaud pour que le refroidissement se fasse par l'air extérieur, le centre utilise un système de refroidissement par évaporation. "Nous pouvons utiliser l'air frais extérieur la grande majorité de l'année," a précisé Scott Noteboom. Yahoo n'a pas indiqué combien elle payait son énergie hydroélectrique, mais Christina Page a fait remarquer que les énergies renouvelables ne revenaient pas toujours plus chères que celles des centrales au charbon. La conception permet un contrôle étroit de la température et de la circulation de l'air à l'intérieur des installations, de la même manière qu'on le fait pour un datacenter en conteneur, mais à plus grande échelle. "Pour moi, le Yahoo Computing Coop est juste un container de plus grande taille," a déclaré Scott Noteboom.

Crédits photos : IDG NS

(...)

(20/09/2010 16:36:39)

IBM rachète Netezza pour 1,7 milliard de dollars

Qu'on les stocke, les compresse, les sécurise, les analyse, les données sont au coeur de la bataille capitalistique que se livrent les grands groupes informatiques. Aujourd'hui, IBM a annoncé l'acquisition de Netezza, en proposant 27 dollars par action, soit une valorisation à 1,7 milliard de dollars. La société, basée à Malborough, propose des appliances pour datawarehouse capable de traiter des capacités importantes de données et gérer de manière plus rapide des requêtes.  Netezza comprend 500 salariés à travers le monde. Les différentes solutions vont être intégrées à l'activité  Business Analytics and Optimization Consulting d'IBM. Big Blue précise que depuis 4 ans, il a investi dans 23 sociétés uniquement dans ce domaine, pour un montant de 12 milliards de dollars.

Netezza avait été citée par une étude comme une potentielle cible de rachat. Plusieurs firmes pouvaient prétendre à cette opération pour étendre leur portefeuille dans le domaine de l'analyse et de l'entreposage de données. Les yeux se tournent maintenant vers Teradata, une future proie.

(...)

< Les 10 documents précédentsLes 10 documents suivants >