Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 961 à 970.

< Les 10 documents précédentsLes 10 documents suivants >


(30/07/2010 12:03:50)

Semestriels Bull : la société se montre prudente pour l'avenir

Impacté par la crise, Bull a publié des résultats financiers pour le premier semestre en demi-teinte. Certes le chiffre d'affaires est en hausse de près de 6% à 591,3 millions d'euros. La marge brute progresse de 7,5% à 131,2 millions d'euros. Au sein des différentes activités, on note une bonne tenue de la branche hardware et solutions systèmes, +5,5% avec 190,6 millions d'euros. Le groupe indique que cette activité est portée par les efforts réalisés dans l'extreme computing et le stockage sécurisé. Par contre l'activité revente de produits tiers chute de 42,3% en raison d'un désengagement volontaire de Bull. La partie maintenance subit aussi une décroissance de 4%, également anticipée.

Des pertes et des prévisions prudentes


Le groupe affiche une perte nette de 18,4 millions d'euros contre un bénéfice net de 2 millions d'euros à la même période un an auparavant. Bull explique en partie cette chute par une charge exceptionnelle de 9,2 millions d'euros représentant la dépréciation de l'écart d'acquisition résiduel de Siconet, une filiale espagnole. Par ailleurs, l'intégration d'Amesys (société de conseil et d'ingénierie dont l'acquisition a été finalisée mi-janvier) impacte les résultats par l'ajustement d'une clause de remboursement de créance de 4,2 millions d'euros.

Pour les perspectives, la société française est très prudente en estimant le résultat d'exploitation pour le second semestre 2010 à un minimum de 30 millions d'euros. La nouvelle équipe dirigeante présidée par Philippe Vannier, après le départ de Didier Lamouche au mois de mai dernier, va présenter à l'automne son plan pluriannuel pour le groupe.

(...)

(29/07/2010 17:34:33)

Cisco, NetApp et VMware proposent une solution Full FCoE

Pour Soni Jiandani, vice-présidente marketing serveurs chez l'équipementier de San Jose, cette annonce entre les trois acteurs, à savoir Cisco, NetApp et VMware, signifie « qu'ils sont capables de construire sur un datacenter avec des serveurs et des machines virtuelles sur tout type de périphérique de stockage : Fibre Channel over Ethernet ou Fibre Channel natif, NAS ou iSCSI sur une architecture réseau de type fabric. » 
Le même Soni Jiandani explique que le switch fabric sur lequel repose le réseau FCoE pour les environnements de serveurs fortement virtualisés peut entrainer de substantielles économies. Par exemple, précise-t-elle, en utilisant un tuyau 10 Gbit Ethernet au lieu de commutateurs Fibre Channel natif et les adaptateurs FC nécessaires aux transports des données, les entreprises pourraient économiser 40% des coûts de mise en réseau, « tout en conservant les investissements qu'ils ont déjà réalisés pour leur l'infrastructure ». L'Université de l'Arizona, par exemple, qui a installé un réseau FCoE unifié, a indiqué qu'elle était en mesure de réduire de 50% ses coûts d'exploitation, avance Soni Jiandani.

Une adaptation efficace

Une fois mis en service, le protocole FCoE emballe les blocs Fibre Channel dans des trames pour les envoyer sur des réseaux Ethernet traditionnels tout en préserver les bénéfices du FC. En règle générale, parce qu'il est nécessaire de mieux partager la bande passante avec le trafic de données entre serveurs, les systèmes FCoE fonctionnent mieux sur les équipements Ethernet 10Gbit. Ethernet reste toutefois un protocole réseau moins robuste que Fibre Channel, qui a été spécialement conçu pour assurer un transport fiable et rapide des données en mode bloc des serveurs aux baies de stockage. En raison de 
problèmes inhérents à sa structure, Ethernet perd des paquets de données qui doivent être renvoyées pour assurer l'intégrité des fichiers, ce qui entraine inévitablement des retards. Plusieurs équipementiers ont déjà présenté des propositions distinctes à l'IEEE pour améliorer la fiabilité d'Ethernet lors du transport de blocs Fibre Channel. « Ce n'est pas quelque chose de nouveau, les 3 sociétés travaillaient déjà sur cette question » a déclaré Jim Sangster, en charges des alliances et des solutions de virtualisation chez NetApp.  La technologie clef de ce réseau convergent repose sur le logiciel de virtualisation VMware vSphere, qui est désormais certifié sur les commutateurs de la gamme Nexus 5000 de Cisco et sur les baies de stockage unifié de la série FAS de NetApp. En complément, les adaptateurs réseau CNAs de QLogic assureront la conversion des blocs Fibre Channel en paquets IP au niveau du serveur hôte.

Oracle avance aussi sa solution Full FCoE

Un peu plus tôt, cette même semaine, notre confrère Computerworld s'est entretenu avec le porte-parole de QLogic Steve Zivanic, qui indiqué qu'Oracle a récemment commencé à rebadger des adaptateurs 8100 CNA de l'équipementier pour construire sa propre offre de réseau convergent FCoE. La société de Reedwood a également choisi les commutateurs FCoE de Brocade pour compléter sa solution. QLogic n'offre pas encore de switch autonome FCoE, mais simplement des composants émulant le FCoE, précise Steve Zivanic. La société prévoit toutefois de proposer très bientôt différents modèles de commutateurs FCoE. « L'essentiel, c'est qu'avec Oracle c'est la première fois que nous entendions parler d'une plate-forme totalement FCoE » ajoute le porte-parole. « Nous connaissions leurs logiciels, matériels, serveurs de base de données et baie de stockage, mais maintenant nous parlons d'éléments composant un réseau convergent intégré. » 

Une pré-annonce ?

Stu Miniman, analyste et chercheur chez Wikibon, se demande comment un accord aussi important à pu réunir NetApp et Cisco pour affirmer qu'ils lançaient la première solution pour FCoE dans un environnement serveur VMware. « Je me demande plus précisément en quoi cette configuration est utile, autrement que comme un environnement de test », a déclaré Stu Miniman sur son blog. « Si une configuration est assez petite pour se suffire d'un seul commutateur top-of-rack, pourquoi un utilisateur NetApp passerait sur une solution FCoE ? » L'analyste souligne encore que pour un réseau convergent, «le commutateur de coeur Nexus 7000, qui a 512 ports - contre seulement 56 pour le Nexus 5000 (NDLR) - paraît beaucoup plus indiqué ». Lors de sa dernière conférence utilisateurs, Cisco Live, l'équipementier californien  a toutefois déclaré qu'il intégrerait le support du FCoE dans son Nexus 7000 au cours du prochain trimestre 2010. «Au final, l'écosystème du stockage reposant sur Ethernet continue de croître », conclut Stu Miniman.« Les pièces commencent à se mettre en place pour obtenir des solutions FCoE de bout en bout crédibles qui pourront être déployées fin 2010 ou début 2011. "

Illustration Cisco Nexus 5020, crédit D.R.

(...)

(29/07/2010 12:07:36)

Le CRM, service majeur de la place de marché Google Apps

Pas moins de 13 applications de gestion de la relation client sont déjà disponibles sur la place de marché Google Apps selon le blog officiel de la compagnie. La page liste les solutions CRM disponibles qui peuvent être installées sur un domaine Google Apps. Certaines offres sont basiques et se concentrent sur l'essentiel, à savoir le duo client/vente. Parmi ces fournisseurs, on retrouve Zoho (déjà partenaire de Google Apps), Applane, Capsule, Tactile et Timetonote. D'autres applications, telles que BatchBook et Bantam Live, sont plus orientés vers une niche : les "CRM sociaux" axés sur la surveillance des réseaux sociaux et la gestion du dialogue avec les clients. Un troisième groupe, qui comprend les produits d'Insightly et de Solve360, rassemble des logiciels destinés aux projets spéciaux.

Intégration à minima avec Apps

Toutes les fonctions de ces applications s'intègrent à des degrés divers à la suite Google Apps. Si à minima ils proposent l'authentification unique à partir de Google Apps, d'autres vont plus loin avec l'ajout de fonctionnalités comme la synchronisation de contacts  et le partage de calendriers. La compagnie de Mountain View a créé cette place de marché pour étoffer l'écosystème de sa plateforme Apps, qui vient désormais concurrencer les solutions de Microsoft, IBM et autres. L'ambition affichée est bien de rassembler autour des Apps un tableau de bord de l'entreprise. Toutes les applications de gestion étant fédérées par la plate-forme cloud  de Google.

Bien cerner les besoins des utilisateurs

Cette place de marché dédiée comprend également des applications complémentaires à la gestion de relation client, comme MailChimp pour l'email et FreshBooks pour la facturation et les relances. Mais cette plate-forme a peut-être besoin de mieux répondre aux intérêts des utilisateurs. Ces offres de CRM  « sont efficaces en soi » soulignent des commentaires sur le blog, rapporte l'analyste Denis Pombriant de Beagle Research, joint par email. « Les utilisateurs demandent à leur direction une solution efficace pour leur usage propre et pour l'entreprise », précise-t-il encore. « Tout cela semble confirmer que le CRM est une méthodologie et une approche commerciale, et pas seulement une question de technologie. Certains fournisseurs et clients commettent encore l'erreur manifeste de rechercher une solution miracle. »

 

(...)

(28/07/2010 11:16:58)

Intel teste des connexions optiques dans un serveur

La lumière intéresse de plus en plus les chercheurs en informatique, pas d'atténuation en fonction de la distance, des débits élevés et symétriques, sont autant d'avantages pour le transport des données. Les Intel Labs ont mis au point le premier lien photonique au monde avec lasers intégrés, exploitant la technologie du laser silicium hybride. Cette puce expérimentale atteint un débit de 50 milliards de bits par seconde (50 Gbit/s).

Ces avancées pourraient modifier la conception même des ordinateurs. En effet, les composants informatiques sont actuellement reliés les uns aux autres par des câbles de cuivres ou des tracés sur les cartes à circuits imprimés. En raison de la dégradation du signal qu'implique le recours à des métaux tels que le cuivre pour transmettre les données, ces liens sont d'une longueur limitée, ce qui limite à son tour la conception des ordinateurs en forçant les processeurs, la mémoire et d'autres composants à n'être séparés les uns des autres que de quelques centimètres.

Du datacenter aux supercalculateurs

« La photonique nous donne la possibilité de déplacer une masse considérable de données dans une même pièce pour un prix abordable » souligne Justin Rattner, Chief Technology Officer d'Intel et responsable des Intel Labs tout en ajoutant « nous pensons que ce procédé sera très pertinent pour les applications au sein des datacenters ». En effet, Les centres de calcul et les supercalculateurs de demain pourront voir leurs composants répartis à l'échelle d'un bâtiment, voire d'un groupe de bâtiments, communicant les uns avec les autres à haute vitesse, au lieu d'être confinés par de lourds câbles en cuivre avec une capacité et une portée limitée. Cette répartition permettra aux utilisateurs de datacenters, comme une entreprise exploitant un moteur de recherche ou un prestataire en cloud computing, d'optimiser l'espace et d'économiser de l'énergie.

Ce prototype est aussi le fruit de recherches précédentes du fondeur sur des dispositifs, qui permettent de manipuler, séparer, mélanger, la lumière. Sur la phase industrielle, Justin Gartner reste évasif « une fois que nous estimerons qu'une production en volume est possible, nous nous tournerons vers des industriels avec une question quelles sont les opportunités pour Intel ».

(...)

(27/07/2010 17:55:43)

Des datacenters métalliques de type Lego chez HP

Le Flexible Data Center de HP consiste en quatre halls de datacenters construits autour d'un bâtiment d'administration au coeur de l'installation. Construits en morceaux de plaques métalliques, il est alors possible d'ajouter chacun de ces centres de calcul, d'environ 1800 m², selon les besoins de l'entreprise. Cette structure est bien différente des constructions habituelles en briques et en béton qui prennent en général plus d'un an à être opérationnelles. HP, avec ce modèle, pense pouvoir réduire les coûts par deux et disposer d'un datacenter fonctionnel en quatre à six mois.


Une flexibilité de type Lego

« Nous en sommes arrivés à un concept de type Lego, une approche industrielle du design des datacenters » précise Kfir Godrich, directeur de la technologie chez HP. Il ajoute qu'ils sont par ailleurs peu gourmands en énergie. L'idée est venue à l'entreprise à la suite d'un dialogue avec ses clients les plus importants. Nombre d'entre eux disposent de centres de calcul ayant une faible capacité, mais n'ont pas forcément les moyens de les étendre ou d'en construire d'autres. Et c'est spécialement le cas lorsqu'il s'agit de déterminer les besoins en la matière sur une décennie ou plus. Une structure préfabriquée pourrait donc contribuer à résoudre le problème, offrant la possibilité aux sociétés de commencer avec de petits espaces et d'ajouter des modules complémentaires suivant leur demande en capacité de calcul, estime Michael Qualley, vice président chez Forsythe Solutions Groupp.



Ils ne seront cependant pas adaptés à tous les besoins, mais correspondent relativement bien à une demande croissante de construction d'environnements hautement virtualisés, comme pour des fermes de serveurs x86, utilisées par des pourvoyeurs de services cloud tels qu'Amazon Web Services, ou des clouds privés. HP a aussi cité des fournisseurs de recherche, des entreprises en colocation de datacenters et des firmes de services financiers comme clients potentiels. La société n'a pour autant pas donné de noms. Elle affirme par ailleurs ne pas adhérer au système de notation de l'Uptime Institute, utilisé par les entreprises pour juger si l'installation est conçue avec une redondance et une fiabilité suffisante à leurs besoins. « Avec le cloud d'entreprise, nous pensons que la majorité des applications ne seront ni largement distribuées ni véritablement critiques » indique Kfir Godrich.



D'autres solutions de flexibilité

HP n'est pas le premier à proposer un tel produit. L'opérateur anglais Colt a annoncé ce mois-ci la mise sur le marché de datacenters préfabriqués, assemblés sur site et extensibles selon la demande. Ceux-ci forment une alternative aux containers de type Pod chez HP ou chez APC dans lequel on peut entasser l'équipement IT, et qui offrent la possibilité d'élargir la capacité des datacenters rapidement. I/O va d'ailleurs prochainement mettre en place des centres de calcul autonomes par container, qui ne nécessiteront pas d'alimentation externe. 

Kfir Godrich explique que le Flexible Data Center a un PUE (Power Usage Effectiveness) de 1,2, qui symbolise la quantité d'énergie effectivement allouée à l'équipement IT sur la totalité transmise au datacenter. Toute note en dessous de 1,5 est considérée comme hautement efficace, alors que la plupart des dispositifs de calcul ont en moyenne une note de 2.

Le chiffre d'HP est obtenu via quelques innovation en matière d'alimentation et de refroidissement. Contrairement aux installations traditionnelles, il n'y a en effet pas de sol surélevé en béton pour faire circuler l'air ni d'unité réfrigérante, qui est normalement une part importante de l'infrastructure de refroidissement. Au lieu de ça, l'entreprise inclut des systèmes par évaporation, et un dispositif de traitement de l'air de chez KyotoCooling.
Dans un effort pour réduire les coûts de construction, les arrivées électriques et de refroidissement sont directement connectées à la section de datacenter ajoutée, évitant l'installation de câbles et de tuyauterie. Chacune de ces sections peut supporter 800 kilowatts d'équipement serveurs, et les structures ont une durée de vie de quinze ans, à l'instar des centres de calcul traditionnels. « Ceci n'est pas une solution temporaire » conclue Kfir Godrich.

Crédits photos HP (...)

(27/07/2010 11:09:28)

Lenovo cherche sa place sur le marché des serveurs

Avec ses ThinkServer RD230 et RD240 en rack, et TD230 en tour - tous équipés de processeurs Intel Xeon six coeurs - Lenovo renforce son offre sur le marché des serveurs. Bien connu en Europe et en Amérique depuis le rachat de l'activité micro-informatique d'IBM en 2005, le fabricant chinois est entré sur le marché des serveurs x86 en 2008 seulement avec ses premiers ThinkServer. Difficile donc de rapidement gagner en crédibilité face à HP, IBM, Dell ou même SuperMicro...

Très classiquement, le chinois destine ses produits à un usage cloud ou comme plate-forme pour base de données, selon Kumar Majety, directeur marketing chez Lenovo. Ils ont été conçus pour répondre aux besoins des petites et moyennes entreprises, et de plus grands groupes qui souhaitent disposer de petits serveurs dédiés à des applications bien spécifiques. Estimé à 24 milliards de dollars, le marché des serveurs x86 est redevenu très dynamique cette année et Lenovo souhaite accaparer une part substantielle de ce segment explique encore Kumar Majety. Mais la compagnie a encore un long chemin devant elle avant de disposer d'une position viable face à des compétiteurs bien établis souligne Dan Olds, analyste chez Gabriel Consulting Group. Lenovo est fort sur le marché des PC, mais ne bénéficie pas encore de la réputation de ses concurrents sur le segment des serveurs. « Ce sera difficile et cela prendra du temps » précise l'analyste. Avec le rachat de la division PC d'IBM, Lenovo a certes gagné en crédibilité dans la fabrication de matériel fiable, mais la firme chinoise aura besoin de revendeurs spécialisés pour convaincre les utilisateurs.



Coté matériel, Lenovo propose une plate-forme bi sockets classique reposant sur les solutions d'Intel, à savoir les Xeon 5500 et 5600 dotés de six coeurs. Le TD230 supporte jusqu'à 32 Go de RAM tandis que les RD230 et RD240 vont jusqu'à 64 Go. Ces serveurs peuvent être livrés avec Windows Server 2008, Red Hat Enterprise Linux 5 ou Novell Suse Linux Enterprise 11. Les TD230, RD230 RD240 sont commercialisés aux prix respectifs de 829, 999 et 1399 dollars en Amérique du Nord et en Europe de l'Ouest.

Illustration : ThinkServer RD240

(...)

(27/07/2010 10:48:14)

Riverbed virtualise son appliance d'optimisation pour des environnements difficiles

Pour Christian Lorentz, directeur marketing produit pour Riverbed « plusieurs clients nous ont demandé de l'optimisation dans des environnements particuliers comme les plateformes pétrolières, des chantiers temporaires ou des datacenters qui manquent de place ». Fort de constat, le spécialiste de l'optimisation vient de présenter Virtual Steelhead, une version logicielle de l'appliance physique existante. « Cette dernière n'est pas soumise à des contraintes comme les chocs, l'humidité, la pression, à la différence ».

Le responsable indique qu'il s'agit d' « une version complémentaire à l'appliance physique pour des besoins très précis ».  La tarification entre les deux solutions (2885 dollars pour le logiciel et 3400 dollars pour l'appliance) n'est pas très différente pour éviter un effet de substitution. Christian Lorentz indique tout de même que l'avantage de la solution logicielle réside dans la très grande facilité d'évolutivité en fonction des besoins.

Riverbed a annoncé que Virtual Steelhead serait dans un premier temps disponible sur la plateforme vSPhere de VMware, mais des travaux sont en cours, sans d'agenda précis, sur d'autres solutions de virtualisation. Testé auprès de plusieurs clients et dans différents environnements (dont un datacenter virtualisé à 100%), le produit sera disponible à la fin août.

(...)

(26/07/2010 15:43:44)

L'Europe enquête officiellement sur le comportement d'IBM sur les mainframes (MAJ)

Quelques jours après la grande annonce sur les mainframes, IBM va faire l'objet de deux enquêtes européennes officielles sur son comportement de lier le matériel des mainframes à son système d'exploitation z/OS.  Cette première enquête fait suite à deux saisines des sociétés T3 et TurboHercules, qui fournissent des émulateurs de mainframe. Ces dernières avaient reçu des courriers de la part de Big Blue constatant qu'ils violaient plusieurs brevets du constructeur. Or certains de ces droits avaient fait l'objet d'un accord avec la communauté Open Source pour être utilisés librement. Cette communauté s'était d'ailleurs émue du comportement d'IBM, qui a tenté de les rassurer. Certains voyaient également dans cette opération la main de Microsoft.

L'autre enquête porte sur le comportement discriminatoire présumé d'IBM vis-à-vis de ces concurrents fournissant des services d'entretien pour ces mainframes. La Commission craint en effet l'existence de pratiques anticoncurrentielles en vue de verrouiller le marché des services de maintenance (en évinçant ses concurrents potentiels du marché), notamment en restreignant ou en retardant l'accès aux pièces de rechange dont IBM est le seul fournisseur.

Le périmètre du marché en question

Sur ce deuxième, la question va être de savoir si l'activité des mainframes est un marché distinct de celui des serveurs. IBM a indiqué dans un communiqué "aujourd'hui, le marché des serveurs est clairement dominé par des équipements à processeur Intel chez HP, Dell, Oracle et beaucoup d'autres, ainsi que des serveurs Unix. Les chiffres parlent d'eux-mêmes: les ventes de systèmes mainframes représentent une infime fraction de serveurs dans le monde - soit un peu 0,02 pour cent de serveurs livrés et  moins de 10% du chiffre d'affaires (8,5 milliards d'euros) du secteur en 2009. Aujourd'hui, le mainframe est une petite niche dans le paysage hautement concurrentiel de l'activité serveur". Big Blue a souligné sa coopération dans les enquêtes de la Commission européenne.

L'exécutif bruxellois souligne qu' « il ne dispose pas de preuves attestant des infractions mais simplement qu'il réalisera en priorité des enquêtes approfondies sur ces affaires.

(...)

(26/07/2010 15:24:43)

Un zeste de cloud pour les ClearPath d'Unisys (MAJ)

Un peu plus tard dans l'année, Unisys prévoit de proposer un environnement de test et de développement cloud pour les utilisateurs de ses systèmes mainframe ClearPath, préfigurant une future offre plus large d'environnements de production hébergés. L'offre initiale est destinée à des entreprises déjà sous environnement de test et de développement ClearPath qui ont besoin d'étendre leur environnement pendant une courte période. «Nous essayons de résoudre la question de la souplesse, afin de répondre à des besoins en ressources rapides et limitées dans le temps de certains clients. Cette option leur permet d'éviter de supporter le coût de l'achat d'un système supplémentaire», a déclaré Bill Maclean, vice-président de gestion du portefeuille ClearPath chez Unisys. "Le plus souvent, les utilisateurs de ClearPath sont de grandes entreprises comme des compagnies aériennes, des opérateurs de télécommunications ou des institutions financières. Celles-ci sont susceptibles d'être intéressées par une offre cloud pour tester de nouveaux logiciels ou rattraper leur retard sur certains projets laissés en attente," explique-t-il.

Une tarification unique

En partie en raison de la nature de l'offre, le système de tarification proposé est inhabituel. Alors que la plupart des plates-formes ou des offres de Software as a Service ont des prix en fonction des processeurs et de la mémoire utilisés, le ClearPath Cloud Development and Test Solution est proposé à un tarif unique pour une durée d'utilisation fixée à trois mois. "Nous vendons une licence d'utilisation pleine capacité pour une période limitée dans temps. C'est comme un serveur virtuel complet doté de toutes les technologies de développement," a déclaré le vice-président d'Unisys. Le prix d'entrée de gamme, qui se situe à 13 000 dollars pour la période, comprend un ensemble complet d'outils de développement comme des compilateurs, des éditeurs et des logiciels de base de données. Il comprend également la mémoire, les unités de stockage et le support technique. "Une tarification identique à celle pratiquée par les fournisseurs d'IaaS n'apporterait pas autant d'avantages parce que, dans l'environnement ClearPath, le logiciel est fourni avec la plate-forme,» a précisé Bill Maclean. Unisys proposera toutefois d'autres échelles de tarifs, notamment pour ajouter plus de ressources processeurs, même si Bill Maclean pense que la plupart des clients se satisferont de l'offre d'entrée de gamme, déjà très fournie selon lui.

Une offre déjà éprouvée en interne

L'entreprise a décidé d'offrir ce service aux clients après l'avoir elle-même utilisé et éprouvé en interne depuis environ deux ans sous forme de service à la demande pour les ingénieurs d'Unisys qui avaient besoin de disposer rapidement de plus de puissance de calcul. "Nous l'avons fait en interne pour résoudre un problème et répondre à une demande," a-t-il déclaré. "Nous avons réalisé que cela pouvait également être le cas chez nos clients." Dans l'avenir Unisys prévoit d'ajouter d'autres services Cloud ClearPath, notamment l'hébergement des environnements de production. "Un client de petite taille pourrait trouver logique de faire héberger tout son environnement de production chez Unisys, ou de grandes entreprises pourraient faire héberger une application en particulier," a estimé Bill Maclean. Unisys envisage également d'ajouter à son service la réplication et la récupération des données, et de sélectionner des offres d'Application as a Service. L'offre de test et de développement d'Unisys, qui devrait être disponible dans le monde entier en septembre, sera hébergée dans son datacenter d'Eagan, dans le Minnesota.

(...)

(23/07/2010 16:02:55)

Twitter va se doter de son propre datacenter

L'entreprise, qui a fait cette annonce au lendemain d'une panne qui a empêché les utilisateurs de se connecter ou de publier des mises à jour, espère ainsi améliorer la fiabilité de ses services.  L'année avait assez bien commencé pour Twitter, mais depuis le mois de juin le site de microblogging a subi plusieurs pannes dues à des pics de trafic générés en partie par la Coupe du Monde de football, mais pas seulement.

Cette migration dans datacenter construit sur mesure ne résoudra probablement pas tous les problèmes - un défaut de base de données est sans doute à l'origine de la dernière panne - mais devrait y contribuer. Elle pourra notamment aider à mieux répondre aux enjeux liés à la croissance rapide de sa base d'utilisateurs. La société affirme en effet qu'elle a décompté cette année jusqu'à plus de 300 000 nouveaux utilisateurs inscrits par jour en moyenne. " Progresser au rythme des utilisateurs et de leur activité représente un défi unique et complexe d'ingénierie," a déclaré Twitter dans un message posté mercredi. " Le fait de disposer d'un centre de calcul dédié va nous donner plus de moyens pour répondre à l'activité croissante des utilisateurs sur Twitter." Cela va également permettre au site de mieux contrôler la façon dont ses réseaux et ses systèmes sont configurés.

Une démarche logique sans être la panacée


Des géants du Web comme Yahoo, Facebook et Google ont déjà leurs propres datacenters, mais la plupart des entreprises de petite taille font appel à des hébergeurs pour gérer à leur place leurs équipements informatiques. Jusqu'à présent, Twitter s'appuyait sur le prestataire NTT America. Pour la première fois, il devra gérer lui-même ses installations. L'entreprise a souhaité réaliser un centre de calcul - il sera situé dans la région de Salt Lake City - avec une meilleure prise en compte de ses besoins de puissance et de consommation énergétique." Twitter indique également que son futur centre " abritera des systèmes multi-constructeurs et que ses serveurs tourneront sous des OS et des applications open source."

Il est peu probable que la dernière panne survenue lundi ait pu être évitée, même avec un centre de calcul dédié : la base de données du réseau social qui stocke les informations de plus de 125 millions d'utilisateurs " s'est bloquée pendant l'exécution d'une requête ". Cela a obligeant Twitter à un redémarrage forcé qui a pris une douzaine d'heures, sans pour autant résoudre tout à fait le problème. En réalité, il a remplacé la base de données défectueuse avec une copie propre et fonctionnelle, autrement dit dans le jargon des administrateurs de bases de données, " un esclave a été promu en maître."

 

 

Crédit Photo: DR

(...)

< Les 10 documents précédentsLes 10 documents suivants >