Flux RSS
NAS
267 documents trouvés, affichage des résultats 101 à 110.
| < Les 10 documents précédents | Les 10 documents suivants > |
(04/08/2010 09:08:27)
IBM s'est offert Storwize, spécialiste de la compression de données
Storwize, dont le siège social est installé à Marlborough, dans le Massachussetts, fournit une technologie qui compresse les fichiers et les autres types de données en temps réel dans de multiples environnements informatiques. Cette technologie, qui ne dégrade pas les performances des applications et des systèmes, permet de stocker davantage de données. IBM veut la mettre à profit pour scanner davantage de données historiques à des fins d'analyse, sans besoin de stockage supplémentaire, ce qui pourrait contribuer à améliorer la performance des applications analytiques et des bases de données.
« La technologie de Storwize permettra de donner du sens à des quantités massives de données et nous permettra de fournir de nouveaux services », a expliqué Brian Truskowski, directeur général d'IBM, dans un communiqué.
L'architecture Random Access Compression Engine (RACE) de Storwize utilise une technologie brevetée et est basée sur l'algorithme de compression standard de l'industrie. La société a été co-fondée en 2004 par Gal Naor, son actuel président. Elle est dirigée par Ed Walsh qui fut précédemment PDG de l'éditeur Avamar Technologies, racheté en 2006 par EMC.
Cisco, NetApp et VMware proposent une solution Full FCoE
Pour Soni Jiandani, vice-présidente marketing serveurs chez l'équipementier de San Jose, cette annonce entre les trois acteurs, à savoir Cisco, NetApp et VMware, signifie « qu'ils sont capables de construire sur un datacenter avec des serveurs et des machines virtuelles sur tout type de périphérique de stockage : Fibre Channel over Ethernet ou Fibre Channel natif, NAS ou iSCSI sur une architecture réseau de type fabric. »
Le même Soni Jiandani explique que le switch fabric sur lequel repose le réseau FCoE pour les environnements de serveurs fortement virtualisés peut entrainer de substantielles économies. Par exemple, précise-t-elle, en utilisant un tuyau 10 Gbit Ethernet au lieu de commutateurs Fibre Channel natif et les adaptateurs FC nécessaires aux transports des données, les entreprises pourraient économiser 40% des coûts de mise en réseau, « tout en conservant les investissements qu'ils ont déjà réalisés pour leur l'infrastructure ». L'Université de l'Arizona, par exemple, qui a installé un réseau FCoE unifié, a indiqué qu'elle était en mesure de réduire de 50% ses coûts d'exploitation, avance Soni Jiandani.
Une adaptation efficace
Une fois mis en service, le protocole FCoE emballe les blocs Fibre Channel dans des trames pour les envoyer sur des réseaux Ethernet traditionnels tout en préserver les bénéfices du FC. En règle générale, parce qu'il est nécessaire de mieux partager la bande passante avec le trafic de données entre serveurs, les systèmes FCoE fonctionnent mieux sur les équipements Ethernet 10Gbit. Ethernet reste toutefois un protocole réseau moins robuste que Fibre Channel, qui a été spécialement conçu pour assurer un transport fiable et rapide des données en mode bloc des serveurs aux baies de stockage. En raison de
problèmes inhérents à sa structure, Ethernet perd des paquets de données qui doivent être renvoyées pour assurer l'intégrité des fichiers, ce qui entraine inévitablement des retards. Plusieurs équipementiers ont déjà présenté des propositions distinctes à l'IEEE pour améliorer la fiabilité d'Ethernet lors du transport de blocs Fibre Channel. « Ce n'est pas quelque chose de nouveau, les 3 sociétés travaillaient déjà sur cette question » a déclaré Jim Sangster, en charges des alliances et des solutions de virtualisation chez NetApp. La technologie clef de ce réseau convergent repose sur le logiciel de virtualisation VMware vSphere, qui est désormais certifié sur les commutateurs de la gamme Nexus 5000 de Cisco et sur les baies de stockage unifié de la série FAS de NetApp. En complément, les adaptateurs réseau CNAs de QLogic assureront la conversion des blocs Fibre Channel en paquets IP au niveau du serveur hôte.
Oracle avance aussi sa solution Full FCoE
Un peu plus tôt, cette même semaine, notre confrère Computerworld s'est entretenu avec le porte-parole de QLogic Steve Zivanic, qui indiqué qu'Oracle a récemment commencé à rebadger des adaptateurs 8100 CNA de l'équipementier pour construire sa propre offre de réseau convergent FCoE. La société de Reedwood a également choisi les commutateurs FCoE de Brocade pour compléter sa solution. QLogic n'offre pas encore de switch autonome FCoE, mais simplement des composants émulant le FCoE, précise Steve Zivanic. La société prévoit toutefois de proposer très bientôt différents modèles de commutateurs FCoE. « L'essentiel, c'est qu'avec Oracle c'est la première fois que nous entendions parler d'une plate-forme totalement FCoE » ajoute le porte-parole. « Nous connaissions leurs logiciels, matériels, serveurs de base de données et baie de stockage, mais maintenant nous parlons d'éléments composant un réseau convergent intégré. »
Une pré-annonce ?
Stu Miniman, analyste et chercheur chez Wikibon, se demande comment un accord aussi important à pu réunir NetApp et Cisco pour affirmer qu'ils lançaient la première solution pour FCoE dans un environnement serveur VMware. « Je me demande plus précisément en quoi cette configuration est utile, autrement que comme un environnement de test », a déclaré Stu Miniman sur son blog. « Si une configuration est assez petite pour se suffire d'un seul commutateur top-of-rack, pourquoi un utilisateur NetApp passerait sur une solution FCoE ? » L'analyste souligne encore que pour un réseau convergent, «le commutateur de coeur Nexus 7000, qui a 512 ports - contre seulement 56 pour le Nexus 5000 (NDLR) - paraît beaucoup plus indiqué ». Lors de sa dernière conférence utilisateurs, Cisco Live, l'équipementier californien a toutefois déclaré qu'il intégrerait le support du FCoE dans son Nexus 7000 au cours du prochain trimestre 2010. «Au final, l'écosystème du stockage reposant sur Ethernet continue de croître », conclut Stu Miniman.« Les pièces commencent à se mettre en place pour obtenir des solutions FCoE de bout en bout crédibles qui pourront être déployées fin 2010 ou début 2011. "
Illustration Cisco Nexus 5020, crédit D.R.
(...)(28/07/2010 11:10:21)EMC renforce sa gamme dédiée à la déduplication
Depuis le rachat de Data Domain, il y a deux ans, EMC renforce régulièrement son offre en matière de déduplication de données. Avec le DD670, la firme d'Hopkinton propose une des offres de compression de données la plus rapide à ce jour avec un débit de 5,4 To par heure en déduplication inline. Le DD670 offre une capacité de stockage maximum de 76 To pour les données brutes et de 2,7 pétaoctets logiques avec un ratio de réduction des blocs de 50 fois selon le type de fichiers utilisés, selon EMC. Cette solution augmente également le nombre de systèmes qui peuvent être répliqués sur un autre équipement de déduplication Data Domain sur un réseau WAN. Jusqu'à 90 volumes peuvent ainsi se répliquer sur une DD670, contre 60 précédemment sur une DD630. «Prenez une banque par exemple. Elle peut avoir de nombreuses succursales. Chaque branche a des besoins de sauvegarde et de récupération en local, mais il est également nécessaire de prévoir la reprise après sinistre», souligne Shane Jackson, directeur du marketing produit pour les systèmes EMC Backup Recovery. « Cela vous permet de dupliquer chacune de ces boîtes sur un datacenter central pour la reprise après sinistre », dit-il.
Le modèle de base de la DD670 offre 12 To de capacité dans un châssis rack 2U (3,5 pouces), et supporte des disques durs SATA de 1 To ou 2 To. Peu importe le nombre et la capacité des disques utilisés, le premier modèle ne peut gérer que 12 To. Le DD670 prend en charge une large gamme d'applications et de protocoles de transfert de fichiers, à savoir Network File System (NFS), Common Internet File System (CIFS), ainsi que Symantec OpenStorage ou EMC Data Domain Boost sur réseau Gigabit et 10 Gigabit Ethernet et/ou Fibre Channel. Une option 8 Gbit/s FC est en effet disponible pour les DD670 et DD880. Le modèle de base de la DD670 est commercialisé au prix de 111 000 $.
Déduplication pour mainframe
EMC a également annoncé une unité d'extension de déduplication des données pour ses baies de disques DLm960 (voir illustration) destinés aux mainframes. Cette solution est basée sur le système DD880, qui permet de réduire les transferts de données lors de la sauvegarde et l'archivage. Avec le module déduplication, la DLm960 ressemble à une bibliothèque robotisée à cartouches. Elle peut accueillir de 2 à 6 bibliothèques virtuelles reposant sur des disques durs et supporter jusqu'à 12 connexions FICON.
L'option de déduplication du DLm960 offre un débit de 4,3 To par heure et stocke jusqu'à 3,5 To de données sur un module physique, mais monte à 3,5 pétaoctets logiques. La solution permet également de répliquer les données sur un autre DLM960s pour assurer la reprise après sinistre. Rappelons que ce système repose sur des disques SATA en RAID 6.
Emulateur de bandes
Enfin, EMC a également annoncé des baies série DL5000 offrant une capacité s'échelonnant de 8 To à 1,4 pétaoctet et jusqu'à 2,8 pétaoctet logiques de données sur disque. La baie 5000 offre un taux de compression 2:1 et atteint un débit de 10,2 To par heure. Les deux modèles de la série DL5000, la DL5100 et la DL5200 (voir illustration), reposent sur une base CLARiiON CX4 utilisant des processeurs Intel Xeon 5500. Ces baies disques comprennent trois liens Fibre Channel 8 Gbit / sec. Comme tous les systèmes EMC Disk Library, la série DL5000 inclut des fonctionnalités d'émulations de bandes, ce qui lui permet d'agir comme un VTL puisque la baie est considérée par l'application de sauvegarde sur disque comme une librairie ou un lecteur de bande existant. Son utilisation ne requiert aucun opérateur ni mise à niveau ou modification logicielle coûteuse. Une interface graphique simple à utiliser associée à des assistants permet de configurer les librairies et les disques à émuler. Il est possible d'allouer ou de supprimer de manière dynamique les librairies, les disques et les cartouches émulés.
Pour utiliser moins d'énergie et améliorer la durée de vie des unités de stockage, la fonctionnalité spin-down permet de mettre tous les disques d'une LUN en « mode veille » s'ils sont inactifs pendant une période définie. Et pour augmenter la disponibilité, ce système emploie deux moteurs Active Engine Failover. Le prix de la DL5100 s'établit à 204 000 dollars et 390 000 dollars pour la DL5200.
Crédits photos EMC
(...)(20/07/2010 14:40:22)Dell met la main sur Ocarina Networks
Dell a annoncé qu'il avait le projet d'acquérir, pour un montant non divulgué, la start-up californienne Ocarina Networks, qui propose une plate-forme destinée à réduire et optimiser les capacités de stockage dans les entreprises. La société propose en effet une solution effectuant la compression et la déduplication des données non structurées telles que les images et les e-mails. Ces actions contribuent à réduire le nombre de bits redondants afin que les données puissent être conservées dans des baies de stockage de moindre capacité ce qui génère à la fois des économies en matériel et en énergie. Ocarina affirme que ses produits peuvent libérer entre 30 et 75 % de la capacité de stockage d'un client. Cette technologie viendra compléter celle de la société EqualLogic, également rachetée par Dell.
La déduplication à le vent en poupe
La technologie de déduplication est une demande très forte chez les administrateurs de stockage pour accompagner la croissance des données brutes. L'année dernière, EMC et NetApp se sont affrontés pour l'acquisition de Data Domain, un des pionniers de la déduplication. EMC a fini par l'emporter moyennant un chèque de 2,1 milliards de dollars. Aujourd'hui, Dell consolide sa branche stockage pour devenir un fournisseur complet de solutions pour centres de calcul à l'instar de HP ou IBM. Le Texan possède une gamme de stockage d'entreprise qui comprend ses propres produits et ceux issus de partenariats, avec EMC notamment.
Etoffer l'équipe
Fondée en 2007, Ocarina est aujourd'hui basée à San José en Californie. L'acquisition devrait être finalisée d'ici la fin du mois et, pour l'instant, Dell n'a pas l'intention de transférer les équipes. Le Texan a simplement indiqué qu'il allait étoffer les capacités commerciales et techniques de la start-up. Dans un communiqué de presse annonçant l'accord, Murli Thirumale, CEO d'Ocarina, explique que son équipe à l'intention d'offrir une solution de stockage optimisée de type «end-to-end » qui comprend la déduplication, la sauvegarde, la réplication, la migration et la hiérarchisation des données.
Illustration : Baies de stockage Ocarina Optimizers 3400, crédit photo D.R.
VMware divise de près de moitié le prix de vSphere 4.1
Alors que ses concurrents Microsoft et Citrix ont amélioré leurs parts de marché sur le marché de la virtualisation en menant campagne contre les prix pratiqués par VMware, l'éditeur de Palo Alto affirme de son côté que le retour sur investissement permis par ses produits justifie un coût de licence plus élevé. Toutefois, pragmatique, VMware baisse le prix de ses produits d'entrée de gamme, l a semaine où Microsoft organise sa conférence mondiale partenaires (WPC) à Washington (lien).
Ainsi pour vSphere Essentials, le ticket d'entrée de la plate-forme de virtualisation maison, coûte désormais 495 $ pour six processeurs (soit une baisse de 995$), ou 83 $ par CPU. L'éditeur change donc le modèle de tarification de ses produits de supervision en ne prenant en compte que les machines virtuelles actives et non plus les processeurs. Ces changements de prix coïncident avec l'arrivée de sa plate-forme vSphere 4.1. Serge Robe, directeur marketing PME Europe chez VMWare explique à cette occasion que l'éditeur ambitionne de rendre sa technologie de virtualisation plus accessible aux petites et moyennes entreprises, notamment avec le programme VMWare Go 1.5 qui permet de tester la solution de l'éditeur.
« La question est de savoir pourquoi cela a demandé tant de temps [la baisse des prix]», souligne Laura Didio, analyse chez Technology Intelligence Corp (ITIC). « La réponse est qu'ils pouvaient se permettre d'attendre, car ils avaient une très grande avance sur tous les autres acteurs du marché. Ils ont été en mesure de surfacturer, tant que les utilisateurs ne rouspétaient pas. « VMware, qui a toujours considéré que ses plus gros clients ne le lâcheraient pas, a pu maintenir des prix élevés. Il y a deux ans, l'éditeur avait pourtant opéré une petite révolution en offrant gratuitement son hyperviseur ESXi. La reconnaissance que la virtualisation devenait une simple commodité et que la vraie valeur pour les clients était du côté de la gestion des environnements virtualisés.
La baisse de prix opérée cette semaine, de 995 $ à 495 pour vSphere Essentials, a été précipitée et fait suite à une promotion proposée depuis plusieurs mois par VMware. vSphere Essentials comprend l'hyperviseur et des outils tels que le thin provisionning pour le stockage, mais pas de fonctionnalités avancées comme la migration en temps réel. « Nous avons testé cette promotion ces quatre derniers mois et nous avons été très agréablement surpris par les résultats », explique Bogomil Balkansky, vice-président marketing produit chez l'éditeur de Palo Alto. « Il s'avère que 500 $ est un peu ce chiffre magique qui ne nécessite pas de passation de marché. La grande majorité des administrateurs ou des gestionnaires de centre de calcul peuvent justement acheter un outil à ce prix sans passer par un long cycle d'approvisionnement. L'augmentation de volume a été très importante, nous avons donc décidé de transformer ce test en promotion permanente. "
[[page]]
Par ailleurs, VMware passe à une tarification par VM pour la gestion de ses produits, tels que Site Recovery Manager et AppSpeed, en réponse à la demande des clients,
explique Bogomil Balkansky. Dans le cas d'une reprise après sinistre, les clients se demandaient pourquoi ils devaient payer pour protéger toutes les VM sur un processeur alors que seules certaines machines virtuelles étaient considérées comme critiques. Même avec cette souplesse, Bogomil Balkansky estime que la facturation réelle des clients - avec le modèle de tarification par VM - sera grosso modo la même que précédemment.
VMware baisse également le prix de son service Motion, qui permet de transférer une charge de travail d'un serveur à un autre sans avoir besoin de redémarrer, en ajoutant la fonction à vSphere 4.1. Les deux solutions qui recevront vMotion sont Essentials Plus, qui coûte 583 $ par processeur, ou 3495 $ pour six CPU;
et Standard, qui coûte 995 $ par processeur et 6.000 $ environ pour six
puces. « Nous avons voulu démocratiser une fonction clef en intégrant la version complète de vMotion à ces packs », explique Serge Robe.
VMware ne va pas jusqu'à baisser le prix de ses solutions haut de gamme, notamment la plus couteuse Enterprise Plus. Cette version est toujours vendue 3.495 $ pour un seul processeur et intègre la tolérance aux pannes, la récupération de données, le commutateur virtuel Cisco Nexus 1000V, et de nombreuses autres fonctionnalités.
[[page]]
vSphere 4.1, qui est maintenant disponible, est présentée comme la meilleure solution pour bâtir un cloud car elle permet une plus grande évolutivité et assure de meilleures performances. Comme les versions précédentes, vSphere 4.1 permet la construction de clusters qui peuvent être gérés comme une entité unique, mais ces groupes peuvent maintenant inclure jusqu'à 3000 machines virtuelles, soit le double de la précédente mouture. VMware promet également des migrations live jusqu'à cinq fois plus rapides, mais cela dépend essentiellement de la mise à niveau de clients qui doivent passer du Gigabit Ethernet au 10 Gigabit Ethernet. Chaque migration live prend environ deux minutes, selon Bogomil Balkansky.
Un des objectifs de VMware consiste à assurer le contrôle non seulement sur le marché des serveurs, mais également sur celui du stockage et du réseau. «Historiquement, nous avons probablement causé une certaine tension entre les équipes serveurs et stockage », explique encore Bogomil Balkansky. À partir de vSphere 4.0, VMware a tenté de donner aux administrateurs de serveurs une meilleure visibilité sur l'administration du stockage. Aujourd'hui, l'éditeur améliore les performances de vMotion, qui déplace des VM d'un réseau de stockage physique à un autre, en déchargeant de cette tâche le serveur au profit des baies de stockage avec Storage I/O Control et Network I/O Control. Alors que VMware est historiquement axé sur les serveurs, le vice-président marketing prédit que les prochaines éditions de vSphere se concentreront sur la fourniture de « capacités analogues dans le stockage et le réseau. »
Malgré des capacités sous employées, les entreprises veulent toujours plus de stockage
Dans les grandes entreprises (plus de 1.000 salariés), l'enquête montre que 58% des responsables disposent d'un budget de plus de 100 000 dollars annuel pour les besoins de stockage, alors que les responsables IT des PME (moins de 1000 salariés) ont indiqué qu'ils dépensaient moins de 100 000 dollars par an. L'enquête révèle que, globalement, les entreprises consacrent en moyenne 23% de ce budget pour couvrir les coûts d'exploitation et de maintenance, soit une moyenne de 29% de leur budget pour les grandes entreprises contre 19% pour les PME.
Les projets clouds progressent doucement
Dans l'ensemble, les gestionnaires ont indiqué que les principaux défis auxquels ils devaient répondre concernaient la complexité des infrastructures (28%), les problèmes de sécurité (27%), le manque de compétences ou de formation (25%), la difficulté à prouver la réalité d'un retour sur investissement (21%) et savoir décider quels secteurs de stockage placer en virtualisation (21%). Seulement 14% des personnes interrogées ont déclaré que leurs entreprises opéraient ou utilisaient des technologies de stockage à base de cloud public ou privé, et quand c'est le cas, avec une préférence pour les systèmes privés. Environ 42% de l'ensemble des responsables IT a déclaré que les solutions de stockage de données à base de cloud public ne figuraient pas du tout sur leur feuille de route. 23% des responsables informatiques des grandes entreprises et 23% de leurs collègues des PME excluent également l'utilisation de solutions clouds privés pour le stockage des données.
Illustration, carte Adaptec SAS, crédit D.R.
[[page]]
Dans la plupart des cas - 98% des responsables informatiques des grandes entreprises, et 73% de leurs collègues des PME - les personnes interrogées disent avoir pris ou envisagé de prendre des mesures pour contrôler les taux d'utilisation des systèmes de stockage. De même, 65% d'entre eux ont déclaré qu'ils prévoyaient de consolider et de rendre leurs systèmes de stockage plus homogènes l'année prochaine. L'enquête a également révélé que les responsables informatiques des grandes entreprises sont beaucoup plus susceptibles d'accroître le niveau d'automatisation de leurs centres de données pour améliorer l'efficacité de leurs systèmes de stockage : 79% contre 56% pour les responsables IT des PME.
Croissance soutenue
37% des responsables informatiques des PME envisagent plutôt de recourir à des solutions meilleure marché, comme étendre l'utilisation de la technologie SATA et augmenter la capacité des disques Serial ATA sans passer au Fiber Channel ou au Serial Attached SCSI (SAS), contre 31% pour les responsables IT des grandes entreprises. L'étude a déduit que la capacité de stockage des entreprises consultées augmentera de 58% en moyenne au cours des trois prochaines années et de 93% dans les 3 à 5 ans, et ce, même si aujourd'hui les entreprises n'utilisaient pas 28% de leur capacité de stockage.
(...)(02/07/2010 15:44:24)
EMC ferme son service de stockage Atmos Online
Quelques phrases sur le site Internet de l'éditeur montrent qu'il ne commercialisera plus Atmos Online et qu'il le cantonnera au seul développement. Comme indiqué sur le site, il n'y aura plus de création de comptes et les anciens clients sont avertis qu'EMC ne garantit plus le support et les niveaux de services pour Atmos Online. Il leur demande donc de migrer les données critiques ou les applications vers des prestataires de l'offre classique Atmos, basée sur des NAS pour gros volumes de données.
Pour certains analystes, la réorientation de ce service s'explique par le faible nombre de clients. Pour d'autres, comme Teri McClure, analyste chez Enterprise Strategy Group « EMC ne veut pas concurrencer ses propres logiciels avec ce service en ligne, d'où la restriction d'utilisation ». Ce n'est pas la première fois que le spécialiste du stockage souhaite devenir un fournisseur de service sur ce sujet. Au début des années 2000, il avait créé un service d'hébergement de manière expérimentale, sans le lancer commercialement in fine.
Isilon dévoile OneFS 6.0 et deux outils de pilotage
Si la sixième génération de OneFS intègre toujours les trois couches de stockage (Raid, système de fichiers et gestionnaire de volume) pour créer un espace de stockage unique d'une capacité maximale de 10,4 Peta, il intègre en sus deux outils de gestion des données, SmartPools et InsightIQ.
SmartPools permet aux utilisateurs d'unifier plusieurs couches de stockage Isilon (comme les S-Series pour la performance, X-Series pour la capacité, and NL-Series pour l'archivage) dans un système de fichier unique, pour simplifier la gestion des données. SmartPools repose sur la définition de politiques, de sorte qu'il est possible de définir la valeur des données au sein des espaces travail. SmartPools déplace ensuite automatiquement les données en fonctions des usages préétablis. La gestion des données OneFS peut donc être optimiser en fonction des utilisateurs et des applications : performance, capacité et coût. En complément, InsightIQ permet aux administrateurs d'identifier et d'éliminer les goulets d'étranglement de performance. Cet outil dédié à l'analyse de la plate-forme Isilon remonte les taux d'usage des CPU et du réseau pour piloter plus finement les baies de stockage du constructeur.
Des références en France
Crée en 2006, Isilon Systems est installée depuis 4 ans en France sous la direction de Xavier Guérin. Aujourd'hui, la société revendique 80 clients dans l'hexagone (1 300 dans le monde) avec 11 Peta installés. DailyMotion est équipé de 2 Po, SkyRock héberge ses 15 millions de blogs sur des systèmes Isilon dans la banlieue sud, Digiplug, une filiale d'Accenture, s'est équipée chez le constructeur pour conserver les fichiers MP3 de la plateforme d'Universal Music et un grand constructeur automobile français vient de choisir ces produits pour étendre ses capacités de stockage.
Très présent dans le secteur des médias, Isilon commence à étendre son marché à l'industrie. Jusqu'à 2009, 50% de notre activité provenait du monde des loisirs, souligne Sam Grocot, VP marketing chez Isilon Systems, mais aujourd'hui nous allons vers tous les secteurs d'activité. « En 2009, le chiffre d'affaires de la compagnie a atteint les 950 millions de dollars et nous avons bon espoir de dépasser le milliard en 2010 », précise encore Sam Grocot.
Interview : Yves de Talhouët, PDG d'HP France
Nous sommes pratiquement à la fin du premier semestre 2010, pouvez-vous nous dresser un bilan d'étape pour HP ?
Les résultats mondiaux pour le deuxième trimestre de l'exercice fiscal montrent un chiffre d'affaires de près de 32 milliards de dollars, en croissance de 13%. On remarque notamment une très bonne performance des serveurs, qui a cru de 30%, ce qui nous place en tête des vendeurs mondiaux de serveurs toutes technologies confondues. Le deuxième trimestre est dans la continuité du premier avec une croissance à deux chiffres. Cela contraste avec les résultats de l'année dernière, mais il y a eu un rebond des achats aussi bien sur le marché des particuliers, que des professionnels. En 2009, les gens ont eu très peurs et réduit leur dépense. A la fin 2009, les investissements sont revenus et ont continué au début de l'année 2010. La France est en ligne avec les résultats mondiaux. Depuis deux trimestres, la croissance a été forte sur l'ensemble des marchés résidentiels et professionnels.
Sur la partie entreprise, quel est le moteur de la croissance, les produits ou les services ?
Clairement, les équipements ont dynamisé la croissance. Pour les services, la croissance des revenus est restée stable, mais c'est normal, les contrats d'externalisation ou de maintenance s'inscrivent dans la durée.
Plusieurs analystes vous positionnent numéro un dans le domaine des serveurs au niveau mondial, est-ce pareil en France et comment expliquez-vous ces résultats ?
En France, la position est la même, les analystes nous créditent de 34 % de part de marché, avec une forte avance sur notre concurrent le plus proche. Sur les explications, on constate la montée en puissance du monde ouvert, les plateformes avec des OS ouverts, non propriétaires d'une seule marque. On remarque également l'intérêt de plus en plus important pour les infrastructures convergentes, c'est-à-dire qu'une même boîte (NDLR : Blade Matrix) comprend du CPU, du stockage, du routage. Et nous sommes les seuls à le proposer de bout en bout.
Pour la suite de l'interview, rendez-vous dans notre rubrique Entretien.
| < Les 10 documents précédents | Les 10 documents suivants > |