Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 661 à 670.
| < Les 10 documents précédents | Les 10 documents suivants > |
(13/07/2010 18:29:32)
VMware divise de près de moitié le prix de vSphere 4.1
Alors que ses concurrents Microsoft et Citrix ont amélioré leurs parts de marché sur le marché de la virtualisation en menant campagne contre les prix pratiqués par VMware, l'éditeur de Palo Alto affirme de son côté que le retour sur investissement permis par ses produits justifie un coût de licence plus élevé. Toutefois, pragmatique, VMware baisse le prix de ses produits d'entrée de gamme, l a semaine où Microsoft organise sa conférence mondiale partenaires (WPC) à Washington (lien).
Ainsi pour vSphere Essentials, le ticket d'entrée de la plate-forme de virtualisation maison, coûte désormais 495 $ pour six processeurs (soit une baisse de 995$), ou 83 $ par CPU. L'éditeur change donc le modèle de tarification de ses produits de supervision en ne prenant en compte que les machines virtuelles actives et non plus les processeurs. Ces changements de prix coïncident avec l'arrivée de sa plate-forme vSphere 4.1. Serge Robe, directeur marketing PME Europe chez VMWare explique à cette occasion que l'éditeur ambitionne de rendre sa technologie de virtualisation plus accessible aux petites et moyennes entreprises, notamment avec le programme VMWare Go 1.5 qui permet de tester la solution de l'éditeur.
« La question est de savoir pourquoi cela a demandé tant de temps [la baisse des prix]», souligne Laura Didio, analyse chez Technology Intelligence Corp (ITIC). « La réponse est qu'ils pouvaient se permettre d'attendre, car ils avaient une très grande avance sur tous les autres acteurs du marché. Ils ont été en mesure de surfacturer, tant que les utilisateurs ne rouspétaient pas. « VMware, qui a toujours considéré que ses plus gros clients ne le lâcheraient pas, a pu maintenir des prix élevés. Il y a deux ans, l'éditeur avait pourtant opéré une petite révolution en offrant gratuitement son hyperviseur ESXi. La reconnaissance que la virtualisation devenait une simple commodité et que la vraie valeur pour les clients était du côté de la gestion des environnements virtualisés.
La baisse de prix opérée cette semaine, de 995 $ à 495 pour vSphere Essentials, a été précipitée et fait suite à une promotion proposée depuis plusieurs mois par VMware. vSphere Essentials comprend l'hyperviseur et des outils tels que le thin provisionning pour le stockage, mais pas de fonctionnalités avancées comme la migration en temps réel. « Nous avons testé cette promotion ces quatre derniers mois et nous avons été très agréablement surpris par les résultats », explique Bogomil Balkansky, vice-président marketing produit chez l'éditeur de Palo Alto. « Il s'avère que 500 $ est un peu ce chiffre magique qui ne nécessite pas de passation de marché. La grande majorité des administrateurs ou des gestionnaires de centre de calcul peuvent justement acheter un outil à ce prix sans passer par un long cycle d'approvisionnement. L'augmentation de volume a été très importante, nous avons donc décidé de transformer ce test en promotion permanente. "
[[page]]
Par ailleurs, VMware passe à une tarification par VM pour la gestion de ses produits, tels que Site Recovery Manager et AppSpeed, en réponse à la demande des clients,
explique Bogomil Balkansky. Dans le cas d'une reprise après sinistre, les clients se demandaient pourquoi ils devaient payer pour protéger toutes les VM sur un processeur alors que seules certaines machines virtuelles étaient considérées comme critiques. Même avec cette souplesse, Bogomil Balkansky estime que la facturation réelle des clients - avec le modèle de tarification par VM - sera grosso modo la même que précédemment.
VMware baisse également le prix de son service Motion, qui permet de transférer une charge de travail d'un serveur à un autre sans avoir besoin de redémarrer, en ajoutant la fonction à vSphere 4.1. Les deux solutions qui recevront vMotion sont Essentials Plus, qui coûte 583 $ par processeur, ou 3495 $ pour six CPU;
et Standard, qui coûte 995 $ par processeur et 6.000 $ environ pour six
puces. « Nous avons voulu démocratiser une fonction clef en intégrant la version complète de vMotion à ces packs », explique Serge Robe.
VMware ne va pas jusqu'à baisser le prix de ses solutions haut de gamme, notamment la plus couteuse Enterprise Plus. Cette version est toujours vendue 3.495 $ pour un seul processeur et intègre la tolérance aux pannes, la récupération de données, le commutateur virtuel Cisco Nexus 1000V, et de nombreuses autres fonctionnalités.
[[page]]
vSphere 4.1, qui est maintenant disponible, est présentée comme la meilleure solution pour bâtir un cloud car elle permet une plus grande évolutivité et assure de meilleures performances. Comme les versions précédentes, vSphere 4.1 permet la construction de clusters qui peuvent être gérés comme une entité unique, mais ces groupes peuvent maintenant inclure jusqu'à 3000 machines virtuelles, soit le double de la précédente mouture. VMware promet également des migrations live jusqu'à cinq fois plus rapides, mais cela dépend essentiellement de la mise à niveau de clients qui doivent passer du Gigabit Ethernet au 10 Gigabit Ethernet. Chaque migration live prend environ deux minutes, selon Bogomil Balkansky.
Un des objectifs de VMware consiste à assurer le contrôle non seulement sur le marché des serveurs, mais également sur celui du stockage et du réseau. «Historiquement, nous avons probablement causé une certaine tension entre les équipes serveurs et stockage », explique encore Bogomil Balkansky. À partir de vSphere 4.0, VMware a tenté de donner aux administrateurs de serveurs une meilleure visibilité sur l'administration du stockage. Aujourd'hui, l'éditeur améliore les performances de vMotion, qui déplace des VM d'un réseau de stockage physique à un autre, en déchargeant de cette tâche le serveur au profit des baies de stockage avec Storage I/O Control et Network I/O Control. Alors que VMware est historiquement axé sur les serveurs, le vice-président marketing prédit que les prochaines éditions de vSphere se concentreront sur la fourniture de « capacités analogues dans le stockage et le réseau. »
WPC 2010 : Azure s'invite sur des appliances Fujitsu, Dell ou HP
Robert Wahbe, Corporate Vice-President Server and Tools chez Microsoft, a expliqué dans un blog que cet ensemble permettrait aux entreprises d'exploiter un service Cloud en interne ou pour leurs propres clients. « Les fournisseurs de service, les administrations et les grandes entreprises qui envisageraient d'acheter, par exemple, 1000 serveurs de ce type la fois, seront en mesure de mettre en oeuvre le service dont ils ont besoin, » a déclaré Robert Wahbe. «Il s'agit là d'un matériel hardware spécifique, verrouillé, équivalent à des centaines de milliers de serveurs,» a déclaré Amy Barzdukas, directrice de la gestion produits, dans une interview accordée à IDG News Service. «Comme tout type d'appareil, celui-ci est standardisé et clé en main, prêt pour permettre aux clients de déployer Windows Azure dans leurs centres de données. » Celle-ci a déclaré que le produit était adapté aux entreprises qui souhaitent faire tourner leurs propres logiciels en interne et en externe sur des services Azure, ajoutant que la charge de travail pouvait être facilement déplacée d'un serveur Azure à l'autre. « Il donne de l'ampleur à la plate-forme, avec l'avantage supplémentaire de pouvoir contrôler ce qui se passe localement, » a t-elle dit.
Une commercialisation pour l'instant limitée
L'appliance, dont la production est pour l'instant limitée, sera proposé par Dell, Fujitsu et Hewlett-Packard sur leurs propres matériels, a indiqué Amy Barzdukas, lesquels prévoient d'offrir un service Azure à leurs clients. eBay a également l'intention d'utiliser cette solution pour des opérations internes. Une commercialisation à plus grande échelle est prévue plus tard cette année. « L'appliance Azure disposera de toutes les fonctionnalités avec le service Azure propre à Microsoft, » a précisé Amy Barzdukas. Microsoft indique qu'elle fera la promotion de l'offre sur son site Internet dès lundi.
Crédit photo : Microsoft
[[page]]
Bob Muglia, président de l'activité Serveurs de Microsoft, a précisé durant la WPC que Windows Azure Appliance pourra gérer jusqu'à 1000 noeuds et que la plate-forme sera livrée avec Windows Azure, Microsoft SQL Azure et un ensemble d'outils de configuration. Une fois installé dans le datacenter du client, l'appliance sera relié à la propre instance Azure de Microsoft. "Nous allons maintenir un flux de nouveaux logiciels pour tous les appliances afin qu'ils soient à jour », dit-il, ajoutant que le client conservera toutefois le contrôle sur des facteurs tels que quand appliquer les mises à jour et les services à déployer.
Une plate-forme fermée
Bobb Muglia a également précisé que si l'éditeur mettra à la disposition de ses clients les spécifications matérielles nécessaires au bon fonctionnement de sa solution dédiée Azure, sa mise en oeuvre n'a pas vocation à être aussi universelle que celle de Windows Server, qui a été conçu pour une gamme de matériels serveurs aussi vaste que possible.
Parmi les autres annonces faites par Microsoft depuis le début de cette conférence, à noter, le lancement de la version release candidate du System Center Virtual Machine Manager Self Service Portal, un pack d'outils de virtualisation pour Windows Server, ainsi que celui d'une version bêta de Windows 7 Service Pack 1 et de Windows Server 2008 R2 Service Pack 1.
Le cloud bientôt plus important qu'Internet ?
Les développeurs du réseau Internet avaient une vision relativement claire et des outils pour parvenir à la forme actuelle du web. Cependant, Mike Nelson, professeur à l'université de Georgetown, s'est demandé, durant la conférence World Future Society de Boston, si les chercheurs d'aujourd'hui avaient une perspective suffisante pour qu'Internet continue son expansion. « Dans les années 90, on savait ce qu'Internet allait devenir. Mais aujourd'hui, il est très difficile d'appréhender le futur avec le développement technologique et les modifications des comportements des Internautes (réseaux pervasifs, créateur de contenus,etc.) » a-t-il affirmé.
L'argument économique du cloud
Pour lui, le cloud computing va devenir un élément central, « encore plus important que le web ». Le cloud rendra possible l'accès, pour les pays émergents, à des logiciels autrefois réservés aux pays riches. Les PME-PMI économiseront une partie de leur capital en utilisant des services tels qu'Amazon EC2 ou Windows Azure pour stocker et calculer leurs données au lieu d'acheter des serveurs dédiés. Des capteurs devraient par ailleurs commencer à apparaître dans les éclairages, les appareils portatifs et les outils agricoles par exemple, afin de transmettre les données par le web et vers le cloud.
Si les résultats de l'étude « Internet and American Life Project » du centre de recherche Pew reflètent effectivement l'attitude des États-Unis envers Internet, les prédictions de Mike Nelson pourraient au final s'avérer exactes. Le sondage effectué en 2000 sur l'utilisation des services cloud avait récolté moins de 10% de réponses positives, alors que celui de mai 2010 a atteint 66% d'utilisateurs, selon Lee Rainie, directeur du projet d'étude qui s'est aussi exprimé à la conférence. Ce sondage a aussi révélé un usage plus intensif des dispositifs mobiles se connectant à ces données stockées sur le cloud.
Des obstacles menacent le nuage
Pour autant, Mike Nelson, réaliste, a mis en garde contre les éventuels obstacles dus aux instances de régulations et aux éventuelles limites de développement. « De nombreuses forces pourraient nous pousser hors des nuages » a-t-il indiqué. D'après lui, les entreprises devraient développer des services sur le cloud qui autoriseraient le transfert de données d'une plateforme à l'autre, plutôt que de bloquer les clients chez un seul fournisseur attitré à travers des technologies qui pourraient devenir intégralement propriétaires.
Crédit Photo: DR
[[page]]
Les clouds seraient alors partiellement ouverts, au mieux. Optimiste, il pense qu'il y a « une chance, en insistant, d'arriver vers un cloud unique et universel ». Mais il souligne d'autres risques de perturbation : les régulations gouvernementales, de la lutte contre le piratage par les industries du divertissement, ou bien des pays craignant l'hégémonie nord-américaines et qui voudraient créer leurs propres clouds.
Des études peu pertinentes sur les effets d'Internet
Le centre de recherche Pew ne s'est pas contenté d'étudier le rôle du cloud et d'Internet, il s'est aussi intéressé de près à comment le web réduisait peut-être l'intelligence ou redéfinissait les relations sociales et le partage de données personnelles.
Sur la possibilité d'une intelligence décroissante, le centre a conclu que les caractéristiques personnelles des individus déterminaient leurs usages du web. Entre une utilisation à vocation de recherche, d'exploration et d'apprentissage, et une autre consistant à accepter le premier résultat offert par un moteur de recherche, tout cela dépendrait en effet de l'éducation des individus, et non pas de la technologie. C'est donc un résultat quelque peu couru d'avance et n'apportant pas un intérêt particulier à l'avancée des recherches dans le domaine. Pour les interactions sociales, les interviewés ont déclaré qu'Internet ne leur avait pas nuit, et qu'ils réalisaient que le réseautage social ne menait pas à des amitiés particulièrement approfondies. Pour autant, les jeunes adultes sont fortement critiqués pour le dévoilement de leurs informations personnelles, et l'étude montre que ce partage n'est pas en voie d'extinction. Ces pratiques, d'après Lee Rainie, seraient en effet bien installées dans les habitudes.
(...)(12/07/2010 12:22:46)
Le Syntec formalise les contrats SaaS
Avec l'aide d'Olivia Flipo, avocate chez, Staub & Associés, le Syntec Informatique a donné les grandes orientations d'un contrat SaaS. Cette méthode de distribution des applications est devenue la porte d'entrée du cloud, mais elle nécessite quelques spécificités juridiques à prendre en considération lors de la signature d'un accord entre client et prestataire. Dans le guide produit par le syndicat et la juriste, il est souligné qu'un contrat Software as as Service est complexe, car il fait appel à plusieurs type de contrats, logiciel, maintenance et assistance technique. Nonobstant, les problématiques sont connues en tournant autour de 3 points, auxquels le Syntec apporte des réponses.
Une charte de qualité
Si le préambule du contrat est essentiel en matière de définition du service et des objectifs poursuivis pour fixer les responsabilités du prestataire, une attention particulière sera portée sur la qualité des applicatifs. Ainsi, le guide explique « l'impact des pannes pouvant avoir de graves conséquences pour le client. En dépit du fait que le client a de fortes attentes, le prestataire ne saurait être responsable de toutes les défaillances et notamment celles du réseau Internet. Il faut donc être très vigilant lors de la rédaction de cette clause, la plupart des interruptions étant fréquemment liées à des problèmes réseaux, voire à des virus ou malveillance. » Il est donc conseillé d'intégrer la mise en place d'un service redondant permettant de contourner les pannes d'origine matérielle ou réseaux. De plus, le syndicat propose la rédaction d'une annexe spécifique la création d'une charte de qualité ou la mise en place de SLA.
Ainsi sur les performances, cette charte doit comprendre des éléments très précis en définissant « des niveaux de performances minimum attendus ainsi que d'anticiper et de corriger d'éventuelles défaillances. Il n'est pas inutile de mettre à disposition des futurs utilisateurs un profil de performances de l'application par heure, par jour, par semaine, par mois. » Idem sur la partie réseaux où les parties doivent indiquer la capacité de bande passante, les consignes de tests et les dispositifs d'assistance.
Crédit Photo: DR
[[page]]
En matière de sécurité des données, le guide renvoie à la loi Informatique et Liberté, mais encourage en cas d'informations sensibles le recours au cryptage. Par ailleurs, un audit technique doit être intégré dans le contrat « compte tenu du caractère très confidentiel de telles ou telles données circulant en mode SaaS ». Cet audit est encadré, tiers indépendant, coûts, modalités, périodicité, personnes autorisées, etc.
Une réversibilité balbutiante
Au coeur des débats sur le cloud, la question de la réversibilité du contrat, c'est-à-dire la récupération des données lorsque le contrat avec un prestataire est rompu, trouve un début de réponse dans ce guide. « Si en mode SaaS, la réversibilité est simplifiée, le rapatriement en interne d'une application hébergée peut s'avérer problématique, s'il faut convertir le format des données » explique le guide. Cela suppose de vérifier l'intégrité des données et de déterminer un mode d'exécution en parallèle jusqu'à la fin de la conversion. Si les conditions techniques ne sont pas résolues, « les parties doivent prévoir de renvoyer l'élaboration du plan de réversibilité, dans un délai donné, lors de l'exécution du contrat » précise le guide.
Par ailleurs, le contrat doit bien préciser le pays de localisation des serveurs et donc d'hébergement des données pour deux raisons : éviter qu'en cas de litige ce ne soit la loi du pays où se trouvent les serveurs qui s'applique, même si la localisation du serveur ne suffit pas, à elle seule, à déterminer la loi applicable. En second lieu, permettre aux clients d'effectuer les déclarations requises auprès de la CNIL.
Spie Communications acquiert Veepee
Drôle d'anniversaire pour Veepee, qui s'offre pour ses 10 ans, à Spie Communications. Aucun montant n'a été dévoilé sur cette union, mais l'opérateur de services IP a réalisé en 2009 un chiffre d'affaires de 16 millions d'euros. Fondé par Eric Rousseau, Veepee a démarré sur un marché de niche très porteur, les médias en assurant, via une plateforme multi-opérateurs, l'envoi des fichiers (photos, maquettes, vidéo etc.) aux imprimeurs ou aux diffuseurs. Cette expertise a évolué avec le temps vers les services managés et plus récemment vers les offres clouds. Il dispose de son propre datacenter en plein coeur de Paris.
L'acquisition par Spie Communications ouvre donc une autre étape de la vie de Veepee avec une industrialisation des services proposés. Pour l'intégrateur, cette opération lui permet de répondre à des demandes spécifiques (maîtrise du Wan, criticité et sécurisation des infrastructures IP) des PME et grands comptes. Veepee, qui va devenir une filiale, comprend 60 personnes et les différentes équipes seront intégrées au sein de Spie Communications.
IBM et l'Union européenne créent un consortium sur le cloud
Cette entité devrait développer des modèles scientifiques sur des systèmes informatiques, capables de gérer les services web depuis différents environnements matériels et logiciel dans un système cloud flexible, explique IBM dans un communiqué.
Les systèmes actuels ne sont pas maniables et chaque modification nécessite une intervention manuelle. Les chercheurs espèrent trouver un cadre pour réduire le temps de conception et le déploiement de ces services en les accueillant sur un cloud central. Ces travaux pourront s'inspirer d'un projet déjà mis en route, baptisé Pincette.
Les chercheurs se pencheront également sur un projet nommé ACSI (Artifact Centric Service Interoperation), qui repose sur le concept, introduit cette année par IBM, de hub d'interopérabilités. Ces pôles offrent une plateforme cloud au sein de laquelle les logiciels en ligne et les services peuvent facilement être créés et déployés. Les clients paieront pour le service d'intégration et aussi pour l'hébergement en fonction des données stockées et les transactions réalisées.
Les universités retenus pour ce consortium sont la Sapienza Universita de Rome, L'université libre de Bozen Bolzano, l'Imperial College (Royaume-Uni), la Technische Universiteit Eindhoven (Pays-Bas), L'Université de Tartu en Estonie et enfin Collibra NV (Belgique).
EMC acquiert Greenplum, spécialiste de la BI
EMC va s'emparer de la société Greenplum, pour un montant non dévoilé. Cette acquisition devrait donner naissance à une entité spécifique, « Data Computing Product » sur la technologie proposée par la jeune société. Elle sera dirigée par le CEO de Greenplum, Bill Cook qui répondra à Pat Gelsinger. L'entreprise vend des logiciels pour analyser de grandes quantités d'informations qui sont collectées dans plusieurs bases de données et traitées séparément pour apporter plus rapidement des résultats aux requêtes. « La solution repose sur l'infrastructure de stockage et de calcul de la société pour permettre aux utilisateurs d'obtenir des réponses sur les données » souligne Scott Yara, co-fondateur de Greenplum.
Lors d'un passage à Paris pour signer un partenariat de distribution avec Team Partner, les deux fondateurs de Greenplum, Scott Yara et Luke Lonargan, ont présenté leur société. Basée à San Mateo en Californie, elle a été fondée en 2003. Elle compte 140 employés, qui seront intégrées dans EMC. Pour la petite anecdote, on retiendra que le nom de la société a été trouvé par un des enfants d'un dirigeant, qui après avoir proposé Apple, a finalement choisi ce qu'il voyait dans un panier de fruit, Greenplum (reine claude). Lors d'une discussion avec Luke Lonargan, il nous avait indiqué être en discussion avec EMC et vouloir proposer à la fin de l'année 2010 une appliance (en concurrence avec Terradata ou Netazza).
La donnée a une valeur ajoutée
A travers plusieurs exemples, Greenplum a démontré la valeur ajoutée des millions d'informations intégrées dans les bases de données. Ainsi, pour l'opérateur T-Mobile, le traitement des données a permis de comprendre les raisons du taux d'attrition des abonnés et de leur proposer des offres ad hoc.
[[page]]
Un service à la volée a même était installé, pour que les salariés puissent, sans passer par les responsables IT, émettre des requêtes sur la base de données. Idem pour une banque américaine, qui avec la crise, avait eu l'opportunité d'acquérir plusieurs sociétés concurrentes. Elle a chargé Greenplum de travailler sur les différentes données pour mieux accompagner les clients des différentes sociétés rachetées (offre adaptée, uniformisée, etc.). Luke Lonargan explique que « peu de gens savent que les données de leur entreprise représente un atout majeur, il suffit simplement de leur démontrer que la donnée a une valeur ajoutée à condition de la traiter ».
Pour EMC, l'intégration de la technologie Greenplum va impacter plusieurs divisions dont le stockage, la sauvegarde, la sécurité. Elle suivra en cela l'expérience du rachat de Documentum, à la différence que ce dernier traitait des données non structurées, alors que Greenplum s'adresse aux informations structurées, souligne Chuck Hollis, vice-président d'EMC. Celui-ci a déclaré qu'il continuera à vendre l'ensemble du portefeuille de produits Greenplum tout en développant un matériel intégré. EMC poursuit ainsi sa montée en puissance autour des services du traitement de la data et de la BI. Il est probable que cela annonce d'autres acquisitions en la matière pour compléter cette nouvelle division.j
EMC ferme son service de stockage Atmos Online
Quelques phrases sur le site Internet de l'éditeur montrent qu'il ne commercialisera plus Atmos Online et qu'il le cantonnera au seul développement. Comme indiqué sur le site, il n'y aura plus de création de comptes et les anciens clients sont avertis qu'EMC ne garantit plus le support et les niveaux de services pour Atmos Online. Il leur demande donc de migrer les données critiques ou les applications vers des prestataires de l'offre classique Atmos, basée sur des NAS pour gros volumes de données.
Pour certains analystes, la réorientation de ce service s'explique par le faible nombre de clients. Pour d'autres, comme Teri McClure, analyste chez Enterprise Strategy Group « EMC ne veut pas concurrencer ses propres logiciels avec ce service en ligne, d'où la restriction d'utilisation ». Ce n'est pas la première fois que le spécialiste du stockage souhaite devenir un fournisseur de service sur ce sujet. Au début des années 2000, il avait créé un service d'hébergement de manière expérimentale, sans le lancer commercialement in fine.
Silicon Valley 2010 : Réseaux pour datacenter et base de données en cluster (4e partie)
Présidée depuis octobre 2008 par Jayshree Ullal, ex-VP de Cisco en charge du pôle datacenter, Arista nous a reçu dans un élégant immeuble de Menlo Park. La start-up qui compte parmi ses actionnaires Andy Bechtolsheim, le cofondateur de Sun, s'est spécialisé dans les switchs 10 Gbit Ethernet haut de gamme (24 et 48 ports) pour les datacenters, les infrastructures HPC et bien sûr le cloud computing.

Principales caractéristiques techniques des solutions proposées par Arista : un système d'exploitation reposant sur un noyau Linux nommé Extensive OS (EOS) et une architecture structuré autour d'une base de données intégrée (SySDB). Doté d'un système de répartition de charge et d'une capacité de buffering pour réduire la congestion, EOS ambitionne de réduire la latence des commutateurs. De son coté, SySDB concentre toutes les informations nécessaires au bon fonctionnement des switchs. Complétée par des outils de supervisons pour réduire les erreurs humaines, cette base conserve les données concernant les commandes CLI et les protocoles réseau. Vice-président en charge de la technologie, Anshul Sadana explique qu'EOS était plus robuste que l'IOS de Cisco et que leur noyau était particulièrement protégé. Sur un marché du switch 10 Gbit évalué à 9 milliards de dollars en 2014, selon Jayshree Ullal, Arista pense avoir une carte à jouer. « Nous pouvons être une alternative dans les datacenters. Les grandes entreprises sont aujourd'hui obligées de prendre en compte les start-ups si elles veulent profiter de leurs capacités d'innovation » ajoute-t-elle. Aujourd'hui, Arista emploie une centaine de personnes, et revendique 340 clients dans le monde. Principalement des centres de recherche, des universités ou d'autres start-ups.
[[page]]
Switch haute densité
Poursuivons nos rencontres dans le monde du réseau avec Blade Networks Technology (BNT) à Santa Clara dans un immeuble qui domine la fab d'Intel . Pas vraiment une start-up, l'équipementier a été crée en 2006 suite à une spin off de l'activité commutateurs du Canadien Nortel. Financé par le fond d'investissement Garnett & Helfrich, BNT compte à ce jour 170 personnes. Si le produit phare de la marque reste le switch Ethernet mini-rack fourni en OEM à HP, IBM ou NEC, BNT commercialise depuis trois ans des systèmes top of the rack qui autorise la connexion maximale de 40 serveurs dans un module vertical en haut des armoires. Le best-seller de la marque, le RackSwitch G8124, est le premier modèle a être descendu sous la barre des 500 dollars par port 10 GigaEthernet, nous explique Vikram Mehta, le dynamique CEO de Blade Networks (voir photo ci-dessous). « Et en 2009, 500 000 serveurs ont été déployés dans le monde avec des équipements BNT, principalement dans des centres de calculs. Connecter un datacenter est une chose très différente de la connexion d'un PC portable. Il faut assurer la convergence entre des milliers de ports et des centaines de machines virtuelles. »

Avec ses 1000 ports switch virtuels, VMready de BNT permet d'adapter le réseau à la virtualisation. Cette solution s'interface avec les principaux éditeurs d'hyperviseur pour associer un virtual port à une VM. Aujourd'hui, l'intégration la plus avancée a été réalisée avec VMware. « Quand on fait une VMotion (déplacer une VM dans VCenter de VMware), le profil associé suit et reconfigure automatiquement le port », souligne Atul tambe, VP ingénierie matériel chez BNT. Et via les API, VMReady 2 va être capable de s'interfacer et de donner des ordres aux switchs. « Nous vivons aujourd'hui le même phénomène que le passage du mainframe au cluster Linux avec le développement du switch distribué en lieu et place du switch classique », ajoute Vikram Mehta.

[[page]]
Base de données MySQL en cluster
Pour notre dernier déplacement, nous quittons la Silicon Valley pour nous rendre dans le quartier d'affaires de San Francisco à la rencontre de Clustrix. Fondée en 2008 par des anciens d'Isilon Systems, Paul Mikesel et Aaron Passey, cette start-up est soutenue par les fonds d'investissement Sequoia - qui a encore des intérêts dans Isilon - VSVP et ATA Ventures. Basée sur une technologie très proche des baies de stockage distribuée d'Isilon Systems, cette start-up propose une solution pour répartir sans partitionnement une base de données de type MySQL sur plusieurs serveurs. Il s'agit de la technologie Isilon adaptée aux bases de données, ici baptisée Clustered Database Systems (CDS).

Découpée en tranches, la base de données est répartie sur tous les serveurs CLX 4100 en cluster. Ici aussi, le système est une solution complète comprenant logiciel et matériel. Si la configuration de base démarre à 80 000 dollars avec 3 appliances CLX 4100 en mode cluster - équipé de 32 Go de mémoire vive, de 2 x 4 coeurs Intel , de 7 x 160 Go SSD et de2 x 320 Go DD - , il suffit d'installer de nouvelles machines pour accroitre la capacité de traitement et l'espace de stockage. La compagnie n'a pas encore installé plus de vingt noeuds, mais rien n'empêcherait d'aller jusqu'à une centaine de serveurs. « Chaque noeud parle à l'autre en fois connecté en IP pour échanger des informations » explique Paul Mikesel, PDG et en charge de l'ingénierie chez Clustrix . Avec son système, la start-up réussit à combiner les fonctionnalités MySQL avec l'extensibilité et les performances des bases de données non-SQL.
Nous terminons ici notre tournée des start-ups, mais nous vous donnons rendez-vous pour une deuxième session en novembre prochain.
(...)(29/06/2010 15:55:05)SFR lance son offre cloud computing
Les opérateurs télécoms lorgnent de plus en plus vers les services à valeur ajoutée et le cloud computing en particulier. Avec un peu de retard par rapport à son grand rival, Orange Business Services, SFR Business Team a présenté son offre cloud. Le nom de baptême est « Infrastructure SI à la Demande », disponible le 1er juillet prochain et propose une mise à disposition de capacité de traitement informatique et de stockage. Concrètement, le tarif d'entrée est de 2800 euros, comprenant 5 comptes d'administrations, un accès à Internet jusqu'à 100 Mbits et un outil en ligne d'administration et de reporting. A cela s'ajoute, plusieurs formules de serveurs distinguées en Small (2Go de Ram, 1 virtual CPU) pour 120 euros/mois, en Large (4 Go de Ram, 2 virtual CPU) à 240 euros/mois et enfin Extra Large (8 Go de Ram, 4 virtual CPU) pour 460 euros/mois. En matière de stockage, le coût du Go mensuel est de 0,29€. Enfin, plusieurs OS seront disponibles, Debian (gratuit), Red Hat (25€/mois) et Windows (Web Serveur 20€/mois, Standard à 218€/mois et Entreprise à 292€/mois). Au regard des tarifs, Paul Corbel, directeur général de SFR Business Team indique : « nous visons d'abord les grandes entreprises pour connaître et comprendre le marché ».
Une automatisation version HP
Sur le plan technique, l'opérateur s'est associé avec HP pour déployer son offre en misant sur l'automatisation des processus. A partir d'un extranet, le DSI pourra choisir sa machine virtuelle, sa capacité de stockage (dans une limite de 3 To), plus certains outils de développement (LAMP, etc). En matière de virtualisation, Arnaud Bertrand, directeur des opérations techniques dans la BU Services Hébergés SFR Business Team souligne « nous supportons dans un premier temps VMware, mais très prochainement nous utiliserons KVM et par la suite HyperV ». L'activité entreprise de l'opérateur dispose de 6 datacenters en France (Lyon, Marseille, Bordeaux, Strasbourg, Caen et Paris).
[[page]]
Dans certains de ces centres, l'infrastructure serveurs repose sur les solutions Blade Matrix d'HP.
Sécurité et contrat français
SFR Business Team entre donc en concurrence avec d'autres opérateurs qui se sont lancés dans l'aventure cloud. Les critères de différenciation sont multiples selon Paul Corbel, « la première est la sécurité, c'est une exigence de nos clients. Nous apportons notre expertise du réseau pour apporter des solutions comme la mise en place d'un lien VPN pour les machines virtuelles, intégration de firewall, données redondées sur 2 datacenters, une disponibilité 24h/24 et 7j/7 ». Il ajoute « une autre demande forte réside dans l'hébergement des données en France ». Le contrat de cloud signé est ainsi de droit français et Laurent Jacquet, directeur marketing de la BU Services Hébergés précise « la réversibilité du contrat est effective, un client pourra récupérer l'ensemble de ces données stockées et il aura à sa disposition son image VMware ».
Aucun objectif n'a été fixé par Paul Corbel sur cette offre « nous sommes dans une phase d'éducation du marché » et de constater « il y aura certainement des évolutions vers le mode PaaS (Plateforme as a Service) » sans préciser de date. Aujourd'hui, l'opérateur adresse en direct le haut du marché, mais devrait se tourner vers sa force de vente indirecte pour viser le marché des grosses PME, la prochaine cible de l'offre cloud de SFR Business Team. Le dirigeant rappelle que le marché de l'hébergement croit de 10% chaque année.
| < Les 10 documents précédents | Les 10 documents suivants > |