Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 681 à 690.

< Les 10 documents précédentsLes 10 documents suivants >


(21/06/2010 15:54:12)

10 coeurs par socket pour la puce Intel Westmere-EX

Dans un document  baptisé "Westmere-EX: A 20 Thread Server CPU, ", Intel dévoilera à la prochaine conférence Hot Chips, du 22 au 24 aout à l'Université de Stanford (Palo Alto, Californie), une évolution majeure de sa plate-forme Xeon Westmere-MP. Quelques mois après la commercialisation de cette dernière, le fondeur de Santa Clara pousse sur le devant de la scène une évolution attendue et tout simplement baptisée Westmere-EX. Toujours gravée en 32 nm, cette dernière pourrait intégrer jusqu'à 10 coeurs physiques par processeur contre huit les Nehalem-EX (45 nm) et 6 pour les Westmere-MP (32 nm). En effet comme cette puce est capable d'exécuter simultanément deux threads par coeur physique, et qu'Intel annonce une puce Westmere-EX 20 threads par socket - contre 16 pour le Nehalem-EX - on arrive à un total de 10 coeurs. Par  le passé, la firme avait déjà indiqué que les puces Westmere-EX devraient comprendre des coeurs fonctionnant à des vitesses plus rapides que les Nehalem- EX. Sans fournir plus de détails, un porte-parole d'Intel a déclaré que les Westmere-EX cibleront le marché des serveurs avec quatre sockets et plus ou AMD propose son Magny-Cours supportant jusqu'à 12 coeurs par socket. Intel propose déjà des puces basées sur l'architecture Westmere pour les PC portables, les ordinateurs de bureau et les serveurs qui peuvent exécuter simultanément deux threads par coeur.

Lors de cette conférence à l'Université de Stanford, d'autres entreprises, comme IBM ou AMD, parleront également de leurs prochaines puces pour serveurs. Big Blue a prévu de présenter sa nouvelle génération de microprocesseur pour System Z et  AMD parlera de son architecture haut de gamme pour station de travail et serveur, Bulldozer, et de son processeur BobCat pour ultraportables et PC basse consommation.

 

(...)

(21/06/2010 12:21:37)

Intel se dote d'un cloud privé

Cela a permis d'optimiser le taux d'utilisation des serveurs de 59% au premier semestre 2006 à 80% aujourd'hui. En réduisant les dépenses d'infrastructures et en évitant la construction de nouveaux datacenters, Intel estime les économies à 200 millions de dollars. Fort de ce succès, la firme a décidé au début de l'année 2009 de se doter d'un cloud privé pour ses bureaux et les filiales du groupe.

De 2005 à 2006, les demandes des nouveaux secteurs d'activités ont fait augmenter considérablement les besoins (applications métiers, tests) des équipes de développement, qui fonctionnaient sur des infrastructures non partagées et sous-utilisées. En sachant que ces dernières représentent un élément important de l'activité R&D, la migration vers un modèle IaaS et Paas était devenu une étape logique.

Intel a donc implanté une solution de Grid Computing au sein de la R&D, qui reprend les fonctionnalités du IaaS et PaaS. Le service est ainsi accessible à travers un portail en libre-service et une interface de lignes de commandes. Le premier permet aux utilisateurs de choisir des éléments clés de l'infrastructure comme le stockage, en volume horaire plutôt qu'au mois. Le plus important pour le fondeur est de mesurer exactement la consommation informatique des salariés.

Un changement de mentalité

Das Kamhout, ingénieur cloud, explique « tout cela représente un changement radical d'état d'esprit » et d'ajouter « le modèle à la demande en libre-service permet aux services IT de s'écarter du schéma traditionnel de l'entreprise et de donner à l'IT un rôle de partenaire stratégique. Avec des tarifs affichés, chacun au centre R&D d'Intel peut maintenant connaître ce qu'il consomme et ce que cela coûte. »

En quoi la solution déployée est-elle unique ? La combinaison du portail à la demande en libre-service sur l'ensemble de l'infrastructure d'Intel et la mesure de la consommation minimise les capacités non utilisées et alloue de manière plus efficace les ressources, en maintenant une haute disponibilité de services.

Devant le succès remporté par son approche, Intel a décidé de la répliquer à travers toute son organisation. Des travaux sont déjà en cours pour le siège et les sociétés du groupe, avec un focus particulier sur la généralisation de la virtualisation et la mise en place d'un cloud privé proposant des solutions à la demande en libre-service.

 

Crédit Photo: DR

(...)

(17/06/2010 17:11:11)

Stockage en ligne : Trend Micro acquiert Humyo

Si le montant de la transaction n'est pas connu, on sait ce que Humyo propose comme solution. La société anglaise fondée en 2007 a offert à 600 000 utilisateurs de disposer d'un espace de stockage en ligne gratuit de 10 Go. Une offre professionnelle existe également avec de la synchronisation de données, la sauvegarde de fichiers plus volumineux et la possibilité de travailler sur un même document avec des collaborateurs à distance.

Pour Eva Chen, PDG de Trend Micro, « cette solution de stockage en ligne, qui est simplement une technologie cloud, s'insère parfaitement dans notre stratégie de fournir de la sécurité pour et depuis le cloud ». Dan Colon, co-fondateur d'Humyo souligne qu'« avec le développement de l'iPad ou des télévisions connectées à Internet, les gens veulent avoir accès aux informations où et quand ils le souhaitent, le stockage en ligne et la synchronisation peuvent répondre à ces besoins ».

(...)

(17/06/2010 13:47:56)

Cloud et secteur public, IBM creuse son sillon

Lors d'une journée spéciale cloud et secteur public à la Maison de la Chimie à Paris, de nombreux responsables informatiques travaillant pour des universités, des collectivités territoriales, des établissements publics et des administrations d'Etat se sont frottés aux solutions proposées par Big Blue pour évoluer vers le cloud. Lors d'un déjeuner, quelques journalistes ont pu discuter de ces questions avec Philippe Jarre, directeur général IBM Global Technology Services qui a succédé à Nicolas Sekkaki, et Éric Cabos, directeur de l'activité secteur public chez IBM. Une discussion informelle, l'occasion d'échanger librement sur ce sujet d'actualité.

Première étape, le secteur public doit savoir pourquoi elle veut aller vers le cloud nous explique Philippe Jarre. Souplesse à l'usage bien sûr mais également réduction des coûts de déploiement applicatif et meilleur partage des ressources. « Si l'état français n'est pas prêt de devenir, comme en Chine, un fournisseur d'infrastructure pour les start-ups, le cloud est un des domaines qui pourrait muscler la France. Notamment au niveau des collectivités territoriales pour redonner un coup de fouet à un bassin d'emplois. » Au coeur de ce dispositif, on trouve bien sûr des infrastructures informatiques, Philippe Jarre n'était pas pour rien auparavant responsable de l'activité datacenter monde chez IBM.

Pour Éric Cabos, les services publics ont déjà réalisé un grand nombre de choses pour améliorer leurs relations avec les usagers. « Des restructurations sont encore nécessaires pour améliorer les systèmes, mais le mouvement est engagé vers une meilleure optimisation des ressources. Deux à trois années sont encore nécessaires pour passer au cloud. Il  s'agit d'un investissement majeur en terme d'infrastructures. »


En illustration, Philippe Jarre, directeur général Global Technology Services, IBM France 


[[page]]

Il y a trois à quatre ans, IBM commençait à répondre aux demandes des entreprises privées pour le cloud et a mis à disposition ses capacités et ses solutions pour accompagner l'évolution. Mais aujourd'hui les datacenters publics n'offrent pas encore les conditions d'accès nécessaires pour assurer la résilience propre aux infrastructures clouds. En effet grâce à sa résilience, une infrastructure cloud peut être utilisée de manière préemptive pour transférer des fichiers en cas d'incident informatique, ce qui permet d'éviter toute perte de données et d'accélérer le processus de reprise.

À la question de savoir ce qui coince dans le secteur public pour passer au cloud, Éric Cabos répond sans détour: «  la rationalisation, l'argent, l'effort et le temps ». Actuellement les administrations françaises partagent peu leurs moyens informatiques, mais le cloud est une opportunité de remettre l'ouvrage sur le métier. « Il s'agit bien d'une excellente excuse pour se remettre au travail. Je crois par exemple aux initiatives clouds des campus universitaires qui pourront plus facilement proposer des postes de travail à jour, aux collectivités territoriales, aux retraites complémentaires » explique Éric Cabos. « Nous avons beaucoup de discussions et d'études avec les administrations, mais pas encore de projets » ajoute Philippe Jarre. « Certains domaines sont plus accessibles que d'autres, comme la collaboration et le poste de travail, mais tous les grands ministères, les affaires sociales par exemple, s'intéressent au cloud». « On pourrait envisager qu'une administration développe une expertise et la mette au service des autres via un service cloud », précise Éric Cabos. « Et si le cloud pour le secteur public sera tout d'abord privé, le concept de cloud hybrides est un passage obligé pour offrir des services aux autres branches de l'Etat ». Sauf que le statut juridique du secteur public interdit pour l'instant ce genre de bonnes pratiques et que les appels d'offre de services sont encore extrêmement cadrés. Alors oui aux clouds, mais pas encore au partage de ressources entre les différentes administrations. (...)

(16/06/2010 15:53:43)

Les créateurs d'Amazon EC2 lancent une start-up dédiée au cloud

Basée à Menlo Park, en Californie, et à Cape Town, en Afrique du Sud, celle-ci a été fondée en 2008 par deux vétérans d'Amazon, Chris Pinkham et Willem van Biljon, avec le soutien de la société de capital-risque Sequoia.

« Responsable de l'infrastructure informatique de tous les centres de calcul, des bureaux et des installations d'Amazon.com entre 2001 et 2006, Chris Pinkham est à l'origine d'EC2 dont il a dirigé l'élaboration, » comme l'indique son profil LinkedIn. Willem Van Biljon quant à lui, il a passé à peine un an chez Amazon, et a fait partie de l'équipe qui a construit la première offre Elastic Compute Cloud (EC2) d'Amazon dont il conduit la gestion produits et la stratégie commerciale jusqu'en juillet 2006.

Lancée en version bêta publique en août 2006, Amazon EC2 a depuis joué un rôle majeur, faisant du cloud une alternative viable aux modèles d'infrastructure informatiques existants. EC2, qui s'appuie en grande partie sur la virtualisation, permet aux clients d'acheter des capacités de calcul brutes en fonction de leurs besoins, avec la possibilité d'accroître ou de réduire à volonté leur demande.

Des solutions encore nébuleuses

Les deux responsables n'ont pas révélé grand chose à propos de Benguela, si ce n'est qu'ils prétendent avoir développé « des logiciels pour infrastructure Cloud » qui vont «révolutionner la façon dont les entreprises interagissent avec le nuage informatique. » Girish Kalele, ingénieur chez Benguela, décrit les solutions sur son profil LinkedIn comme étant « la prochaine génération d'outil de virtualisation réseau pour les centres de calcul. »

Benguela a récemment recruté Quinton Hoole, ingénieur informatique et Kuyper Hoffman, ingénieur système, issus d'Amazon également. La jeune structure cherche aussi à recruter un spécialiste logiciel, formée à la conception de code pour des systèmes demandant « un niveau élevé de disponibilité, de sécurité et de performance... » et « ayant la capacité de travailler, ou apprendre à peu près n'importe quelle brique technologique, avec une préférence pour les outils et les méthides open source » en plus de la compréhension de l'informatique virtualisée, du stockage et des environnements réseaux.

Chris Pinkham devrait donner plus de détails sur Benguela la semaine prochaine au cours de la Conférence Structure 2010, où l'entreprise a été nominée pour le prix LaunchPad.

 

 

(...)

(16/06/2010 16:12:37)

Avec BSM 9.0, HP simplifie la gestion des environnements hybrides

Comme les entreprises adoptent progressivement un modèle hybride avec des environnements physiques et virtuels, elles ont aujourd'hui besoin d'outils pour les aider à gérer la performance et la disponibilité de toutes leurs applications, indépendamment du lieu où elles sont exécutées, nous a expliqué, à Issy-les-Moulineaux, Bruno Buffenoir directeur France Software & Solutions chez HP. « On nous demande d'être très créatif pour revoir la façon de gérer les plates-formes et d'accompagner les demandes des solutions métiers. Nous voulons aider les entreprises à simplifier et automatiser le processus de déploiement d'applications dans ce nouveau monde virtuel hybride, cloud, physique, sur périmètre et hors site». Après une phase d'audit des différentes informations présentes dans entreprise, l'éditeur passe aujourd'hui à une seconde étape avec le traitement de ces informations.

Aider les entreprises à se concentrer sur l'innovation

Lors de son événement Software Universe 2010, HP a donc présenté la version 9.0 de Business Service Management (BSM), Test Data Management (TMD) et trois offres de services conçus pour aider les clients à maximiser leurs investissements logiciels. « Avec BSM 9.0, nous proposons tout simplement aux entreprises de se concentrer sur la nouveauté pour laisser la maintenance du quotidien à nos solutions conçues pour simplifier et automatiser la manière dont on gère proactivement les différents événements » souligne Claire Delalande, directrice marketing France Software & Solutions chez HP. Si les équipes informatiques peuvent administrer les applications, les réseaux et les événements de manière plus efficace, tout en respectant la conformité, elles pourront se consacrer à d'autres tâches, où, voir leur effectif réduit, même si HP ne met bien sûr pas ce point en avant.

Industrialisation les systèmes d'informations

« Trop souvent, les informaticiens travaillent dans leur coin et font leur propre choix, mais la tendance est aujourd'hui à l'industrialisation. Avec BSM 9.0, nous contribuons à la mise en place de process industrialisés pour que l'informatique ne soit pas le dernier bastion non industrialisé de l'entreprise », assure Bruno Buffenoir. Quand on voit le nombre d'alertes sur les serveurs, une grande partie n'est pas traitée, car on ne voit pas ce qui est important et de nombreuses alertes sont remontées par les clients faute de moyens de supervision. Pour apporter une solution à ces problèmes, BSM 9.0  maintient une vision actualisée des services et des applications exécutées sur site, hors site, dans un environnement  virtuel ou physique. Pour ce faire, une base de données intégrée baptisée ODB (Operation DataBase), récupère toutes les infos de manières centralisées et facilite le traitement décisionnel. À terme tous les produits de la suite HP convergeront vers ce modèle de données pour fournir une météo des systèmes consolidés. BSM 9.0 s'intègre d'ailleurs automatiquement à l'outil Configuration management System d'HP. Les différents services sont constamment mis à jour pour fournir un état précis aux équipes informatiques. Un point particulièrement important pour la gestion des VM et des Cloud. « Nous avons affaire à un monde mixant Cloud et machines virtuelles où la vitesse et la fréquence de changement sont 10 à 100 fois plus nombreux que dans des environnements physiques traditionnels. Pour ce faire, les entreprises ont besoin d'un système [qui garde la trace de tous ces changements] et capable de suivre en temps réel les évolutions» a expliqué à Washington Paul Mueller,  vice-président marketing de la division HP Software & Solutions.

Crédit illustration : HP Software & Solutions

[[page]]

Des tableaux de bord personnalisés, une autre nouveauté de BSM 9.0, permettent également de concevoir des  dashboard sur mesure pour répondre aux besoins des différents services : métiers ou techniques. Cela peut contribuer à réduire le temps nécessaire pour résoudre des incidents et analyser plus rapidement les problèmes de service. Des fonctions collaboratives apparaissent également dans BSM 9.0 pour favoriser la circulation des informations entre les membres de l'équipe technique et accélérer les prises de décision quant aux éventuels incidents. « Ainsi, vous avez une explication contextualisée et l'avis de tout le staff IT », explique Paul Muller. 

Plusieurs éléments étoffent encore le portefeuille BSM 9.0 : Business Availability Center 9.0 pour surveiller et diagnostiquer les applications de surveillance et de diagnostic; Operations Manager i9.0, qui détecte et signale automatiquement les changements dans les applications et les infrastructures physiques ; enfin Network Management Center 9.0, qui rassemble dans une fenêtre unique la gestion des pannes, de la disponibilité et du rendement des applications.

Fournir des données gérées pour les tests applicatifs

Second volet de cette annonce, Test Data Management (TDM), en partie concurrent de la plate-forme Rational d'IBM, automatise les processus de test en fournissant des données aux applications cibles. Si les entreprises ont besoin d'informations pertinentes pour tester leurs futures applications, l'extraction et l'utilisation de données sensibles ne sont pas toujours appropriées, notamment avec les juridictions en vigueur dans les banques et les assurances et la multiplication des ressources externalisées. TDM se propose donc de fournir des data gérées dans les applications et de rendre cohérente ces données dans les différents environnements. « Nous apportons la capacité à pouvoir mettre en place des jeux de données (vieillissement, respect des normes de sécurité...), sans enfreindre de règles. Si hier on pouvait donner des data de production sans grandes contraintes, ce n'est plus, le cas aujourd'hui » nous explique, HP. D'autant plus que l'extraction et la préparation des données pour un cycle de test peuvent consommer jusqu'à 50% des ressources globales ajoute, Paul Muller. Avec TDM, les entreprises peuvent utiliser des outils pour extraire automatiquement, gommer, normaliser et, au besoin, masquer les données, avant de les passer aux systèmes qui en ont besoin. Le coût associé aux essais applicatifs peut ainsi baisser et les entreprises s'assuraient que des données sensibles ne sont pas utilisées en infraction des règles de conformité. 

Des services complémentaires

Sur le plan des services, HP met en évidence et élargit trois offres. Sa plate-forme Solution Management Services (SMS) fournit un soutien logiciel et des services de consultation pour aider les entreprises à simplifier et à optimiser leurs déploiements. La compagnie met également en avant son offre Business Availability Center (BAC) Anywhere pour supporter des environnements sélectionnés. Proposé en mode SaaS dans le Cloud de HP, BAC Anywhere permet aux entreprises de contrôler leur parc applicatif web à partir de n'importe quelle console dans le monde, y compris en dehors de la zone protégée par le pare-feu.  Enfin, BSM 9.0 Services aide les clients à concevoir et à déployer leurs logiciels de la suite BSM

(...)

(16/06/2010 10:11:22)

Le support gratuit d'EC2 dénoncé par une étude IBM/Wisconsin-Madison university

Quand on utilise le cloud, si l'on veut un support de qualité et un service technique rapide et performant, la solution la moins chère n'est pas le choix le plus pertinent. Cette évidence est parfaitement illustrée par une étude menée par des chercheurs américains de l'Université du Wisconsin-Madison et d'IBM Research, qui se sont penchés sur le cas du service Amazon Elastic Compute Cloud (EC2).
Amazon offre des packages premiums payants. Cependant beaucoup de clients optent pour les supports techniques gratuits sur les forums. Les chercheurs soulignent que connectivité, gestion de l'image virtuelle et performances sont des problèmes communs à tous les utilisateurs de la solution EC2 d'Amazon. Or, leur résolution est souvent vécue comme un chemin de croix.

Les nouvelles fonctionnalités multiplient les problèmes

Ainsi, selon l'étude réalisée par ces chercheurs, les administrateurs des forums du support technique d'Amazon répondent aux posts au bout de seulement 10 à 12 heures. Pire : la résolution effective des problèmes peut souvent prendre des jours. Titré  "A First Look at Problems in the Cloud", le compte rendu de cette étude sera prochainement présenté à la conférence Usenix de Boston. Il repose sur une analyse de 9575 messages postés entre août 2006 et décembre 2009 sur les forums du support technique d'Amazon. Durant ces trois années, 60 % des problèmes ont été résolus en moins de 9 heures par les 166 administrateurs participants, même si ce temps s'est parfois allongé à une vingtaine d'heures. La plupart des problèmes ont été résolus par seulement dix de ces administrateurs.

D'autre part, l'étude a montré que le nombre de problèmes augmente significativement quand Amazon sort de nouvelles fonctionnalités. « A titre d'exemple, une augmentation des problèmes d'infrastructure virtuelle a été observée durant le quatrième trimestre 2008, au moment même où Amazon a lancé un service de stockage, nommé Elastic Block Store », explique l'auteur.

[[page]]

Cependant cette étude est à lire avec précaution puisque les auteurs se sont simplement cantonnés à l'offre de support technique gratuite et non pas à celle tarifée par Amazon de 100 à 400 $ par mois. Cette offre, bien plus complète, permet une prise en compte au cas par cas, ce qui diminue de façon conséquente les délais de résolution. Malgré tout, les auteurs justifient leur périmètre par le fait que l'étude met en lumière les problèmes les plus communément retrouvés par l'utilisateur typique de Cloud Computing.

L'auteur du compte-rendu conclut ainsi : « Pour offrir des supports plus efficaces, les Cloud devraient développer des outils permettant de gérer les mises à jour ou nouvelles fonctionnalités, d'automatiser les taches opérateurs et de fournir une solution permettant la gestion et le transfert des données entre l'opérateur et le client. »

Crédits photo : D.R. (...)

(15/06/2010 15:12:39)

SM1000 : Un serveur animé par 512 puces Atom

Le Californien SeaMicro a annoncé qu'il avait développé un serveur composé de 512 processeurs Intel Atom de faible puissance montés sur de petites cartes mères, le SM 1000. Le choix des puces Atom, que l'on trouve le plus souvent intégrées aux netbooks bon marché, Andrew Feldman, PDG de SeaMicro et personnage controversé dans la Silicon Valley, l'explique en disant qu'elles peuvent être plus efficaces sur le plan énergétique que des processeurs x86 traditionnels. En particulier pour le Cloud et certains types d'opérations dédiées à Internet où les charges de travail ont tendance à être plus petites en taille, mais plus grosses en volume. « Les serveurs actuels sont moins efficaces pour les petites charges de travail, » explique Andrew Feldman. « Les puces haute performance pour serveurs, comme l'Intel Xeon d'Intel et l'AMD Opteron sont mieux adaptées aux charges de travail nécessaires pour faire tourner les applications de type bases de données dans les entreprises traditionnelles », explique-t-il.

Des solutions alternatives

Ancien directeur marketing, Andrew Feldman oublie volontiers que certains serveurs en rack ou sur lames sont animés par des puces x86 double coeurs traditionnels ou basse consommation et offrent un très bon rapport encombrement/performance. Pour lui, les processeurs Atom, mis en série, fournissent de meilleures performances par watt dans un environnement Cloud. « La puce Atom s'avère bien adaptée pour la gestion des applications ordinaires, moins pour les opérations de calcul très difficiles. Et l'Internet est un secteur où il y a essentiellement des tâches ordinaires », a-t-il déclaré. Des benchmarks permettront de valider - ou non - ces propos quand ils seront publiés.

D'autres vendeurs se sont également tournés vers des solutions alternatives, mettant en oeuvre des serveurs avec des puces basse consommation. Ainsi, Dell a construit, pour certains de ses clients passés au Cloud, des serveurs reposant sur des processeur Nano fournis par Via Technology, et un groupe de recherche de Microsoft a également dévoilé l'année dernière des serveurs expérimentaux à base de puces Atom.

Illustration : Le SM1000 de SeaMicro, à partir de 140 000 $ (crédit photo : DR)
[[page]]

Pour économiser l'espace et réduire la consommation d'énergie, SeaMicro a réalisé son serveur SM1000 avec le moins de composants possible. Celui-ci est donc constitué de 512 cartes mères miniatures intégrant chacune un processeur Atom Z530 cadencé à 1,6 GHz, et reliées entre elles par un connecteur permettant un débit théorique de 1,28 térabits par seconde. En général, les cartes mères pour serveur comprennent des composants pour effectuer des tâches liées au stockage et à l'échange réseau, mais SeaMicro dit avoir virtualisé les entrées/sorties avec un contrôleur ASIC (Application-Specific Integrated Circuit) émulant le hardware, ce qui permettrait de se passer « de 90%» des composants d'une carte mère traditionnelle.

Une carte mère de la taille d'une carte de crédit

« Cette technologie nous permet de limiter la carte mère à la taille d'une carte de crédit », a expliqué le PDG de SeaMicro. Sur la carte mère, « seules demeurent les éléments principaux que sont la DRAM, le contrôleur et le CPU Atom », a-t-il précisé. « Le serveur se compose de 10 racks empilés en hauteur pour occuper 17,5 pouces - 45 cm - soit un quart de l'espace qu'occuperait un serveur traditionnel, mais aussi un quart de la puissance, pour une charge de travail équivalente », a indiqué Andrew Feldman. Cependant pour améliorer les performances, « les puces Atom pourraient être remplacées par d'autres processeurs x86 ou des composants reposant sur une architecture ARM ».

Livraison annoncée vers le 30 juillet

« Le SM1000 a un design unique qui pourrait amener d'autres vendeurs à repenser la façon dont ils construisent les serveurs », a déclaré Cal Braunstein, PDG du cabinet Robert Frances qui réalise des études de marché. « Ces serveurs ont été conçus pour un usage particulier. Avec cette architecture, ils peuvent utiliser des puces Atom et répartir la charge de travail entre un grand nombre de processeurs travaillant simultanément. Ce type de machine est adapté à certaines tâches Internet », ajoute encore Cal Braunstein. De plus, les datacenters se trouvent confrontés à des contraintes énergétiques. « Des serveurs comme le SM1000 peuvent aider à résoudre ce problème tout en réduisant la facture d'électricité. »

Bien évidemment, SeaMicro a fait savoir que certains clients utilisaient déjà sa machine, mais n'a pas souhaité les nommer. Officiellement, le serveur SM1000 de SeaMicro devrait être livré aux Etats-Unis vers le 30  juillet, pour un prix démarrant à 140 000 dollars US.

(...)

(14/06/2010 12:48:46)

VMware, après Novell des accords avec Red Hat et Ubuntu ?

Début juin, VMware a annoncé un accord avec Novell portant sur la distribution et le support de Suse Linux Enterprise Server et l'adoption de cette distribution pour ses appliances. Et les utilisateurs qui souhaitent déployer VMware vSphere avec Suse Linux pourront installer gratuitement le système d'exploitation et bénéficier des mises à jour. L'abonnement au support technique restera toutefois une option payante proposée par VMware et ses partenaires.  «Les clients de VMware pourront obtenir les mises à jour ou des correctifs non seulement pour vSphere, mais aussi pour Suse Linux Enterprise Server », a ainsi déclaré Bogomil Balkansky, vice-président du marketing produit chez  VMware. Les utilisateurs pourront bénéficier d'une «offre homogène avec un guichet unique pour le support » à partir d'un seul vendeur, ajoute-t-il.


De plus, la filiale d'EMC normalise avec Suse Linux sa plate-forme appliances, une machine virtuelle pré-configurée qui embarque un OS et une application dans un bloc autonome (voir illustration principale). VMware propose par exemple un Appliance avec vCenter AppSpeed, un outil dédié à la gestion de la performance des 
applications virtualisées distribuées. Cet accord entre VMware et Novell réduit la complexité pour les clients et augmente le bénéfice des offres, a déclaré Joe Wagner, vice-président de Novell. "Nous sommes ravis que VMware valide notre stratégie d'être le système d'exploitation le plus souple pour les serveurs, les machines virtuelles et les infrastructures cloud », précise encore Joe Wagner.

Crédit photo VMware

[[page]]

Cet accord est une décision logique, a souligné l'analyste Drue Reeves, du Burton Group. «Je ne dirais pas que c'est fracassant [mais] cela a du sens, spécifiquement du point de vue de Novell dont beaucoup de clients ont migré de mainframes et de plates-formes milieu de gamme », vers Linux, ajoute Drue Reeves. « Ils peuvent opter pour une plate-forme Linux virtualisée. » 
Cependant, les deux éditeurs doivent bien s'assurer de ne pas perturber des partenaires comme IBM, qui vend des mainframes et des systèmes Unix, et des fournisseurs rivaux comme Red Hat et Canonical, qui sont également en affaires avec VMware, poursuit l'analyste. 

L'accord avec Novell n'est cependant pas exclusif, précise Bogomil 
Balkansky de VMware. Bien qu'il n'y ait encore aucun plan de décidé pour des accords similaires avec d'autres vendeurs, d'autres arrangements ne sont absolument pas exclus, ajoute-t-il. VMware continuera de supporter ses clients qui utilisent ses technologies de virtualisation avec d'autres plates-formes Linux, comme comme Red Hat ou Canonical Ubuntu. Drue Reeves s'attend lui aussi à ce que VMware forge des accords similaires avec Red Hat et Ubuntu.

(...)

(14/06/2010 11:21:27)

Interview : Yves de Talhouët, PDG d'HP France

Nous sommes pratiquement à la fin du premier semestre 2010, pouvez-vous nous dresser un bilan d'étape pour HP ?

Les résultats mondiaux pour le deuxième trimestre de l'exercice fiscal montrent un chiffre d'affaires de près de 32 milliards de dollars, en croissance de 13%. On remarque notamment une très bonne performance des serveurs, qui a cru de 30%, ce qui nous place en tête des vendeurs mondiaux de serveurs toutes technologies confondues. Le deuxième trimestre est dans la continuité du premier avec une croissance à deux chiffres. Cela contraste avec les résultats de l'année dernière, mais il y a eu un rebond des achats aussi bien sur le marché des particuliers, que des professionnels. En 2009, les gens ont eu très peurs et réduit leur dépense. A la fin 2009, les investissements sont revenus et ont continué au début de l'année 2010. La France est en ligne avec les résultats mondiaux. Depuis deux trimestres, la croissance a été forte sur l'ensemble des marchés résidentiels et professionnels.

Sur la partie entreprise, quel est le moteur de la croissance, les produits ou les services ?


Clairement, les équipements ont dynamisé la croissance. Pour les services, la croissance des revenus est restée stable, mais c'est normal, les contrats d'externalisation ou de maintenance s'inscrivent dans la durée.

Plusieurs analystes vous positionnent numéro un dans le domaine des serveurs au niveau mondial, est-ce pareil en France et comment expliquez-vous ces résultats ?


En France, la position est la même, les analystes nous créditent de 34 % de part de marché, avec une forte avance sur notre concurrent le plus proche. Sur les explications, on constate la montée en puissance du monde ouvert, les plateformes avec des OS ouverts, non propriétaires d'une seule marque. On remarque également l'intérêt de plus en plus important pour les infrastructures convergentes, c'est-à-dire qu'une même boîte (NDLR : Blade Matrix) comprend du CPU, du stockage, du routage. Et nous sommes les seuls à le proposer de bout en bout.

Pour la suite de l'interview, rendez-vous dans notre rubrique Entretien.

(...)

< Les 10 documents précédentsLes 10 documents suivants >