Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 811 à 820.
| < Les 10 documents précédents | Les 10 documents suivants > |
(21/10/2010 11:13:06)
IP Convergence : Les PME en retard sur la ToIP
Paradoxe, 26% des TPE française (moins de 10 salariés) sont passées à la ToIP (avec des solutions diverses : box, Pbx, Ipbx, centrex) alors que 29% des PME (10 à 499 salariés) l'ont fait. Les deux chiffres sont proches, traduisant une bonne adhésion des TPE à la ToIP, mais un retard certain des PME. Les grands comptes étant, avec des services internes dédiés aux sujets télécoms encore mieux équipés. Ces chiffres sont dus au cabinet Scholé Marketing qui publie depuis cinq ans un Observatoire de la ToIP.
Les PME posent donc un vrai problème aux acteurs des télécoms et des réseaux. Le potentiel est pourtant là. 80% des 200 000 PME françaises et 60% des TPE ont un Pbx (commutateur telecom), ce qui laisse une forte marge de progression. Toujours selon Scholé Marketing, près du tiers des Pbx en France sont obsolètes. En fait, derrière ces chiffres engageants, se profile une vraie difficulté pour les prestataires à s'adresser aux PME et à tisser des relations avec leurs réseaux de distribution.
Le marché français souffre également de plusieurs particularités. D'abord, l'extrême morcellement des clients avec près de 3 millions de TPE en France selon l'Insee. Et surtout, le « phénomène des box ». Si les TPE sont équipées en ToIP, c'est parce qu'elles ont adopté une box grand public. « Peut être faudrait-il mettre au point des box pro plus sophistiquées» lance Nicolas Amestoy, le directeur de Scholé Marketing.
Installateurs et intégrateurs sont en première ligne
« Certes, remarque malicieusement Jean-Michel Texier, gérant du Groupement Convergence, la box a habitué le client au forfait à son domicile, mais une fois dans son entreprise il se retrouve dans un univers totalement différent et la ToIP entraîne des problèmes de qualité ». Le message est clair : installateurs et intégrateurs sont en première ligne. Dans l'informatique, un client peut attendre une heure ou deux pour être dépanné, dans les télécoms c'est dans la minute. « Une interruption de communication » est inacceptable souligne Jean-Michel Texier qui relève les problèmes de qualité de la ToIP et donc le caractère indispensable des installateurs et intégrateurs comme lui. Des problèmes de qualité qui ont pu freiner l'adoption de la ToIP dans les PME.
Côté télécoms et opérateurs, les évènements s'accélèrent. Historiquement, les opérateurs ont proposé aux entreprises des solutions voix, plus récemment (quelques années) de l'accès internet, depuis quelques mois, ils s'engagent sur la mobilité. Le mouvement se précipite, avec des offres packagées, des interlocuteurs uniques, et une bataille féroce, des trois grands entre eux et avec les opérateurs alternatifs. Parmi ces derniers, plusieurs sont devenus MVNO afin de pouvoir proposer de la mobilité : Acropolis Telecom, Futur Télécom, Global Concept, Nerim, Keyyo il y a un mois seulement. Ils vont pouvoir ainsi résister aux trois grands opérateurs qui déboulent avec des offres « triple play » entreprises : fixe, internet, mobile. « On pourrait même parler de quadruple play, explique Silvère Baudoin, directeur général adjoint de Keyyo, si l'on ajoute les services analogiques : fax, contrôle des alarmes etc...».
Cette mobilité pourrait servir de facteur déclencheur à une reprise de l'investissement dans les PME. D'autres facteurs sont cités. Le vieillissement des PBX pour Scholé Marketing, le besoin de monter en débit chez Acropolis Télécom, celui de réduire sa facture et de mieux appréhender sa dépense télécom du côté de Keyyo. « Il faut aussi innover, chez Keyyo nous vendons du centrex en ligne, le client installe lui-même les téléphones pré configurés qu'il installe sur son Lan, explique Céline Lazard, la directrice commerciale de l'opérateur ». Mathieu Dulac responsable du marché PME chez Alcatel-Lucent insiste, pour sa part, sur le besoin des entreprises de se réformer et de repenser leur organisation, par exemple avec du travail collaboratif. Plus prosaïquement, d'autres interlocuteurs citent les réorganisations ou les déménagements d'entreprises.
Trimestriels VMware : Un chiffre d'affaires porté par la virtualisation
Continuant à surfer sur la virtualisation industrielle des serveurs d'entreprise, VMware affiche une augmentation de 46 % de son chiffre d'affaires pour le troisième trimestre 2010, soit 714 millions de dollars contre 456 millions de dollars un an plus tôt.
Les États-Unis ont été une forte zone de croissance pour les services et licences de l'éditeur, « en particulier le gouvernement fédéral américain, qui a fortement développé la virtualisation » précise, Mark Peek, directeur financier de VMware. Les revenus issus des États-Unis ont légèrement augmenté (362 millions de dollars) par rapport à ceux du reste du monde (352 millions de dollars). Le chiffre d'affaires global se divise de manière assez égale entre licences - 343 millions de dollars, en hausse de 43 % - et services, 371 millions de dollars, en hausse de 49 %. Le bénéfice net a progressé de près de 125% à 85 millions de dollars contre de 38 millions de dollars au troisième trimestre de 2009.
Ces annonces ont dépassé les attentes des analystes qui anticipaient un chiffre d'affaires trimestriels de 698 millions de dollars. En conséquence, VMware prévoit des revenus pour le 4ème trimestre entre 790 et 810 millions de dollars, ce qui serait une augmentation de 30 à 33 % sur un an.
Des prévisions prudentes, mais des ambitions fortes
Cependant, alors que la croissance en 2010 semble solide, les dirigeants de VMware prédisent une une croissance plus ralentie. « Nous nous attendons à ce que les commandes sur les serveurs croissent plus lentement en 2011, par rapport à 2010 » a expliqué Mark Peek lors d'une conférence téléphonique avec les analystes. En conséquence, les recettes de VMware pourraient baisser au premier trimestre 2011 par rapport au 1er trimestre de cette année.
Côté acquisition, l'année 2011 « sera une année d'investissements importants »a souligné le directeur financier. VMware mise aussi sur des revenus supplémentaires en provenance d'autres marchés comme la virtualisation du poste de travail et le cloud computing. Pour le premier, « l'intérêt croissant pour notre solution pour les dekstops va contribuer à des ventes importantes de licences » confirme Mark Peek sans pour autant fournir de chiffres, notant que la technologie en est encore dans sa phase d'adoption précoce.
Au cours de ce trimestre VMware a fait l'acquisition de deux sociétés, Integrien, spécialiste de l'analyse des performances applicatives et TriCipher, éditeur d'outils de sécurité.
SAP travaille avec Intel, Cisco et Fujitsu sur l'appliance HANA
SAP a démarré avec HP un programme de co-innovation pour les premiers clients de son appliance HANA (high-performance analytic), conçue pour les analyses de données à haute performance. Il a annoncé d'autres partenariats avec Cisco, Fujitsu Technology Solutions et Intel autour du support de cette appliance, lors de l'édition américaine de sa conférence technologique, à Las Vegas, une semaine après le TechEd de Berlin (une troisième édition se tiendra à Bangalore, en Inde, du 1 au 3 décembre prochain).
A cette occasion, SAP a rappelé qu'il poursuit ainsi avec Intel une collaboration engagée dès 2005 autour des technologies « in Memory », avec le co-développement de NetWeaver Business Warehouse Accelerator, à l'oeuvre dans l'application BusinessObjects Explorer. L'accord avec Cisco concerne les serveurs UCS, l'éditeur allemand souhaitant tirer parti des capacités mémoire étendues de ces systèmes.
Vishal Sikka, directeur technique de SAP, a rappelé que dans le cadre du programme pilote lancé avec Hana, l'un des clients du groupe, évoluant dans le secteur des biens de grande consommation, était déjà capable d'effectuer des requêtes sur 460 milliards d'enregistrements en quelques secondes. Un exemple que le CTO avait déjà donné à Berlin, la semaine dernière. Celui-ci a également indiqué que SAP préparait une série d'applications spécialisées, dont une permettra aux fournisseurs d'énergie d'analyser les données provenant de compteurs « intelligents ».
Des outils d'allocation pour cloud privé
Sur son TechEd américain, l'éditeur allemand a annoncé travailler sur des outils d'administration et d'allocation de ses logiciels pour des plateformes de cloud privé. Ceux-ci seront compatibles avec les autres outils d'administration, ainsi qu'avec Solution Manager, de SAP. Ils devraient être disponibles au quatrième trimestre 2011. Plus d'une quarantaine de clients et de partenaires travailleraient avec l'éditeur sur cette plateforme qui procurera une vue unifiée sur l'infrastructure virtualisée et sur la couche SAP. Il s'agira principalement d'automatiser des tâches manuelles, comme la prise en compte de nouveaux utilisateurs par l'allocation des ressources d'infrastructure correspondante.
L'éditeur a également signalé son intention de supporter les architectures de cloud privé d'IBM et de Dell. Précédemment, il avait déjà annoncé le support des systèmes Vblock soutenus par EMC, VMware et Cisco.
Illustration : Vishal Sikka, CTO de SAP, sur le TechEd de Las Vegas - 18 au 22 octobre 2010 (crédit photo : SAP) (...)
Office 365, Microsoft unifie ses services cloud
Difficile de s'y retrouver dans les offres en ligne de Microsoft, celles de collaborations ou de communications unifiées. L'éditeur, s'il dispose d'un catalogue riche de services, a décidé de combiner plusieurs de ses services autour d'une même marque plus fédératrice, Office 365. Cette dernière regroupe la version Online 2010 de SharePoint, d'Exchange et de Lync, ainsi qu'Office Web Apps. Par ailleurs « pour la première fois, nous incluons Office Professionnel Plus 2010 (qui comprend la messagerie électronique, vocale , un réseau social d'entreprise, conférence web, extranet, etc.) sur les postes clients par un abonnement mensuel » souligne Laure Goudiard DuMesnil, responsable produits Online Services chez Microsoft. Cette offensive est une réponse au développement des Google Apps et au lancement récent de LotusLive Note d'IBM.
Une offre à la carte selon la taille de l'entreprise
La distinction d'Office 365 est sa modularité en fonction du type d'entreprises ciblées. Ainsi, pour les TPE (de moins de 25 salariés) ou les professionnels, le service coûtera 5,25€ par utilisateur et par mois. Pour mémoire, l'accès à Google Apps en édition Entreprise coûte 50 dollars par an (soit 3,39 euros par utilisateur et par mois). Pour les entreprises de plus grande taille, Office 365 débute à partir de 1,75€ pour Exchange Online et 9€ pour la suite complète. Celles qui souhaitent intégrer Office Professionnel Plus 2010 débourseront 22,75 euros par utilisateur et par mois. A ces produits, il faut ajouter une version à destination de l'éducation, qui remplacera Live@edu, « elle sortira l'année prochaine, mais sans de date fixée pour l'instant » précise la responsable produits. De même, l'ajout de Dynamic CRM Online est prévu en 2011.
Avant d'être officiellement lancé au premier trimestre 2011, Office 365 est disponible en version bêta dans plus de 13 pays dont la France. A la question de savoir s'il y a une limitation pour l'accès à cette version de test, Guillaume Tourres, responsable média souligne « cela devrait concerner plusieurs milliers de clients » sans en préciser le nombre exact et d'ajouter « sur l'offre Dynamics CRM Online, nous avions été obligé de limiter les accès pour prendre en compte les capacités de nos datacenters ».
L'éditeur va aussi s'appuyer sur son réseau de partenaires, comme les opérateurs télécoms ou les revendeurs de solutions cloud, pour déployer Office 365. Guillaume Tourres rappelle qu'aujourd'hui un million de postes sont hébergés dans le cloud.
Code2Cloud, l'environnement de développement cloud de VMware
Même si l'entreprise a fait la démonstration d'un prototype de son futur service Code2Cloud lors de la conférence développeur SpringOne G2X qui se tient à Chicago, celui-ci ne sera pas disponible avant 2011. Ce service gratuit, qui était plus connu sous le nom de code NAPA, est qualifié de « portail de déploiement » par Rod Johnson, directeur général de la division produits SpringSource de VMware. Il a le considère comme « le chaînon manquant entre l'environnement développeur desktop intégré (IDE) et le déploiement vers le cloud, ». « Aujourd'hui, le processus impliquant le déploiement d'une toute nouvelle application vers le cloud est très fragmenté, » explique Rod Johnson. « Ainsi, il n'existe pas de lien direct entre le développement en interne et les étapes de test et de déploiement qui ont lieu à travers le réseau, » a t-il ajouté. « Comment et à quel niveau suivre son code source? Comment assurer le suivi de ses tests ? Comment procéder à une intégration en continu ? Dans ces domaines, les développeurs sont largement livrés à eux-mêmes, » a déclaré Rod Johnson.
Le service offrira un environnement de développement complet, ainsi que les moyens de déployer facilement des applications dans des cloud privés ou publics à l'image de l'offre VMforce commune à Vmware et Salesforce, ou des Google Apps. L'éditeur canadien Tasktop Technologies a également contribué à l'élaboration de Code2Cloud. Le service apportera un certain nombre d'outils de développement comme SpringSource Tool Suite IDE, le logiciel de contrôle de code source Git, le plug-in de gestion de tâches Mylyn issu du logiciel Eclipse de Tasktop Technologies, l'outil d'intégration Hudson, et un service de suivi compatible avec Bugzilla. Le service VMware propose également un tableau de bord permettant de suivre la progression des projets et le travail des équipes de développement.
Le service sera d'abord disponible via la suite logicielle gratuite SpringSource Tool Suite, ou via un plug-in Eclipse. Le développeur aura la possibilité de lancer un projet dans l'environnement intégré IDE, et poursuivre sur le cloud où il pourra trouver les outils de contrôle de code source, la gestion de l'intégration en continu, et les outils de debugage et de suivi. « Avec Code2Cloud, dès que le développeur a corrigé un défaut dans Eclipse, le code hébergé est instantanément créé, testé et déployé. Tout problème détecté lors de l'exécution en runtime apparaît immédiatement dans le contrôleur et dans l'IDE avec un compte rendu complet du contexte de l'erreur, » a déclaré Mik Kersten, PDG de Tasktop Technologies, dans un communiqué. « Java sera le premier langage pris en charge par cette offre, mais au fil du temps VMware pourra ajouter d'autres langages, » a déclaré Rod Johnson.
Crédit Photo : D.R
(...)(19/10/2010 11:59:56)Ray Ozzie, évangéliste du cloud, quitte Microsoft
L'architecte logiciel en chef de Microsoft, Ray Ozzie, quitte le navire en faisant valoir ses droits à la retraite. Nous n'avons pas de plans pour le remplacer a simplement indiqué le PDG de l'éditeur de Remond, Steve Ballmer, qui a écrit une note aux employés de la société, également publié sur le site Internet maison. Steve Ballmer est resté vague sur la date exacte de départ de Ray Ozzie. Il va rester « un certain temps », pour assurer la transition entre les équipes et les projets en cours explique le PDG de Microsoft. « Pendant cette évolution et avant qu'il se retire, il se concentrera ses efforts dans le domaine plus large du divertissement où Microsoft a de nombreux investissements en cours, at-il dit.
L'éditeur n'a pas l'intention de le remplacer. « Le rôle de l'ASC [Chief Software Architect] était unique et je ne vais pas remplir ce rôle après le départ de Ozzie Ray » précise Steve Ballmer et d'ajouter « il a joué un rôle crucial dans la bascule vers le cloud et nous a correctement positionné pour le succès futur ». Le dirigeant rappelle la note « Internet Services Disruption » écrite il y a 5 ans et qui « a stimulé la réflexion de la société et a aidé à catalyser nos efforts sur le cloud. » Dans cette note, Ray Ozzie a déclaré que Microsoft avait besoin d'orienter son activité vers un nouveau modèle de services financés par la publicité et les logiciels. « Ce modèle a le potentiel pour avoir un impact fondamental sur la manière dont nous et les autres développeurs fabriquons, livrons et monétisons des innovations ». Azure, la Plateform as a Service (PaaS) de Microsoft, est l'exemple de ce type de produits prôné par Ray Ozzie. Cette orientation s'est ensuite étendue à des versions hébergées de produits tels que SharePoint, Exchange et Office Communications.
Une réorganisation fatale
Mais peu après le lancement d'Azure, la société s'est réorganisée et les destinées de la plate-forme sont passées sous la direction de Bob Muglia, qui s'occupait de l'activité Server et and Tools Business. À l'époque, certaines personnes se demandaient quel serait le rôle de Ray Ozzie dans l'entreprise une fois Azure hors de son contrôle. Il a rejoint Microsoft en 2005 comme agent technique en chef lorsque le géant du logiciel a acquis sa compagnie, Groove Networks. Il était surtout connu à l'époque pour être l'un des créateurs de Lotus Notes. Il a été une grande force de Microsoft, car il était un des représentants de l'époque des spécialistes en informatique, qui ont grandi avec les premiers ordinateurs. Lorsque Bill Gates a démissionné, Ray Ozzie a été logiquement pressenti pour le remplacer comme architecte logiciel en chef.
L'ASC a une fois estimé qu'il avait accumulé 10 000 heures derrière un ordinateur depuis sa deuxième année au collège. Il est né la même année que Gates et ils avaient tous deux connus leurs premières expériences avec l'informatique en utilisant des ordinateurs GE sous Time Sharing.
Crédit Photo : D.R
(...)(18/10/2010 16:51:15)Selon AMD, la multiplication des coeurs va bientôt cesser au profit de la spécialisation
« Il y aura bien une fin à la guerre sur le nombre de coeurs dans les processeurs. Je ne vais pas donner de date précise sur ce sujet, mais je ne m'attends pas à voir 128 coeurs sur une puce pour serveur avant la fin de cette décennie », assure Donald Newell, CTO serveurs chez AMD, qui a rejoint la société de Sunnyvale l'été dernier après avoir passé 16 ans chez Intel. « Ce n'est pas irréaliste sur une roadmap technologique, mais pour les équipes de développement, les contraintes en terme de puissance attendue par les clients sont telles que cela n'est plus réalisable avec les puces simplement équipées de plusieurs noyaux, explique-t-il, dans un entretien avec notre agence interne IDG News Service à la suite d'une présentation à New York sur le cloud computing.
Ce changement de direction sera également un grand soulagement pour les développeurs du monde entier qui peinent introduire plus de parallélisation dans leurs programmes pour mieux exploiter les architectures multi coeurs.
Jusqu'au début de la dernière décennie, l'amélioration des processeurs a principalement porté sur l'augmentation de la vitesse d'horloge. Avec chaque nouvelle génération de puces, les cadences étaient plus rapides que celles des modèles précédents. « Nous pensions que nous allions construire des puces à 10 GHz, » poursuit Donald Newell en parlant de sa précédente vie chez Intel. « Ce n'est que lorsque nous avons découvert que la puce deviendrait si chaude qu'elle pourrait traverser la Terre, que nous avons décidé de ne pas la faire », a-t-il plaisanté.
Toujours plus de transistors
Bien que la loi de Moore continue de s'appliquer sans relâche, grâce au développement
de techniques de lithographie toujours plus fines permettant de graver encore plus de transistors sur une matrice, la course s'est progressivement tournée vers la multiplication du nombre de coeurs pas puce : AMD et Intel ont proposé deux, quatre, six, huit et même douze coeurs par processeur. Mais cette course arrive à son terme, poursuit Don Newell. «Tout comme nous avons assisté à la fin de la guerre des fréquences, nous allons voir la fin de la guerre des coeurs. »
Le prochain front concurrentiel, selon le directeur technique, se situera sur le segment de l'informatique hétérogène. Au lieu d'être en grande partie composé d'un noyau unique pour les traitements généraux, les processeurs seront composés de plusieurs éléments et ressembleront des systèmes sur une puce ou des sections seront dédiées à des tâches spécifiques, telles que le cryptage, le rendu vidéo ou le réseau. De son côté, IBM a également annoncé qu'il développait des puces spécialisées pour étoffer les capacités de ses serveurs.
AMD a également commencé à travailler dans cette direction avec sa prochaine gamme de processeurs Brazos (nom de code Ontario) pour netbook et PC portables, attendus en 2011. La société a baptisé ses puces APU, ou Accelerator Processor Unit, car elles combinent des unités de traitement de type CPU et le GPU dans un seul coeur. « Rien ne nous empêche de mettre des éléments spécifiques dans un coeur pour accélérer certains traitements » souligne Don Newell. « Alors, vous pouvez vous attendre à voir émerger des architectures hétérogènes où nous intégrerons les fonctions que nous estimons très utiles, mais qui ne doivent pas être directement greffées à l'architecture x86. » Si ces composants dédiés dans le coeur des puces peuvent effectivement agir comme des « coprocesseurs », « nous mettons au point un ensemble d'outils techniques pour intégrer plus facilement ces éléments dans l'architecture [x86]. »
Des travaux similaires chez Intel
Intel, qui flirte avec sa plateforme exploitant 80 coeurs, semble également se diriger vers ce type de technologie. La prochaine génération d'architecture de puces pour PC, Sandy Bridge, rassemble dans un même coeur CPU et GPU. Finalement, la technologie peut même aller jusqu'à concevoir des «circuits reconfigurables », qui font penser à la technologie FPGA (Field Programmable Gate Array), longtemps prometteuse, mais jamais vraiment utilisée en informatique. «Ce n'est pas encore sur notre feuille de route, mais d'un point de vue technologique, on peut entrevoir une prochaine direction. »
Une autre réalité pour la conception de puces est la question de la gestion d'énergie.
« Il fut un temps où c'était la dernière chose prise en compte», note le directeur technique. «En 2004, la valeur essentielle n'était que la performance ». Après cela, les fabricants de puces ont commencé à prendre en compte le ratio puissance/efficacité énergétique dans leurs travaux de conception pour répondre aux demandes des clients. Depuis plusieurs années, AMD, comme Intel, ont intégré de nombreuses fonctionnalités d'économie d'énergie pour réduire la puissance consommée, mieux contrôler la gestion de l'alimentation, et mettre en sommeil les coeurs non utilisés.
Illustration : Donald Newell, CTO d'AMD
VMworld Europe 2010 : Un écosystème en pleine effervescence
Le cru 2010 de cette édition européenne est marqué par une montée en puissance de Vmware sur les différentes couches de l'IT, du datacenter virtualisé en passant par l'utilisateur final, les annonces ont été nombreuses. Au sein du centre des congrès danois, plusieurs sociétés ont profité de cet évènement pour promouvoir leurs solutions parfois en complément des annonces de VMware, d'autres en concurrence avec, peut-être, le secret espoir d'attirer l'attention de l'éditeur américain.
La sécurité étant un frein psychologique ou réel, à l'adoption du cloud computing, plusieurs sociétés ont annoncé des solutions pour répondre à cette crainte. Ainsi, Trend Micro va fournir une appliance virtuelle de sécurité qui apporte une protection des VM et des Vapps dans le cadre d'un datacenter virtualisé. Pour Harish Agastya, directeur marketing et produit de sécurité pour datacenter chez Trend Micro, « notre solution deep security 7.5 comprend un anti-malware qui s'appuie sur VShield Endpoint [NDLR : une gamme de produit de sécurité comprenant les applications, le réseau, etc.] , elle permet de créer une protection anti-virus pour les VM sans agent tiers installé sur chaque machine virtuelle ». Par ailleurs, dans la logique de migration des données d'un cloud privé vers un cloud public, Trend Micro a lancé une version bêta d'une plateforme de sécurité baptisée SecureCloud. Celle-ci comprend une gestion à base de clés, une technologie de chiffrement standard et une authentification des serveurs virtuels. Cela répond aux propos de Paul Maritz, CEO de VMware qui expliquait en ouverture du salon, « nous devons concevoir la sécurité autrement. Celle-ci ne se réalise plus à la marge du réseau, mais devant les applications elles-mêmes. » Autre acteur, qui se lance dans les appliances virtuelles de sécurité, Fortinet, ce dernier propose en effet 4 solutions (Fortigate, FortiManager, FortiAnalyzer et FortiMail) à destination des environnements virtualisés. Christophe Auberger, ingénieur système senior, explique « sur le cloud, les menaces sont les mêmes, mais les risques sont plus importants, car il y a des zones d'ombres ». Les solutions présentées s'associent donc aux services de sécurité physique existant pour combler ses zones.
De l'administration et du management à profusion
La migration vers le cloud apporte sans conteste de la souplesse, mais nécessite quelques aménagements des infrastructures souvent complexes. Pour accompagner au mieux cette transition et pour l'automatiser, les responsables IT sont friands d'outils de gestion, d'administration du cloud. Le salon a été l'occasion de découvrir des sociétés qui proposent différentes solutions en la matière. C'est le cas de VKernel qui a présenté sa suite de capacity management intégrant le monitoring, le planning, l'optimisation et la refacturation à la demande. Cette solution entre en concurrence avec Capacity IQ de VMware mais revendique une plus grande granularité dans l'administration des VM, ainsi qu'un coût moindre. Avec la montée en gamme de VMware, des acteurs unifient leurs outils de supervision comme le montre Veeam, qui propose One Solution, qui se compose d'éléments similaires à ceux de VKernel. Daniel Fried, Directeur Général de Veeam souligne que « le management des infrastructures virtualisées a besoin de temps réel et d'unification, les entreprises vont dans la direction d'une plus grande agilité ». En parallèle des ses solutions d'administration, Veeam est également très présent dans le backup et la restauration, « une étude que nous avons réalisé montre qu'en France, par exemple les problèmes, de restauration coûtent en moyenne 458 000 dollars par an, car les sociétés réalisent très peu de test dans ce domaine ». Les données étaient au coeur des discussions dans les allées du salon et plus exactement les bases de données. Un petit acteur, qui répond au nom de Splunk, (diminutif de spéléologie en anglais) a présenté une solution capable d'analyser tous les types de données (sécurité, log, incident, charge de travail, etc.) en temps réel.
Les opérateurs télécoms, cibles privilégiées
Pour l'ensemble des acteurs, l'adoption de cloud passera par les opérateurs télécoms, véritable lien entre le monde des services managés et des offres de communications. Ce n'est donc pas pour rien que plusieurs opérateurs étaient présents sur le salon. Colt s'est ainsi distingué en devenant le premier partenaire de VMware pour déployer Vcloud Datacenter. Deux clients ont déjà intégré cette solution de virtualisation du datacenter, Carphone Warehouse et Fidelity. Pour l'instant il s'agit de plateforme de test applicatif, la mise en production devrait se faire progressivement. En France, Béatrice Rollet, directrice produit et marketing chez Colt France a indiqué « nous avons des beta testeurs sur cette solution, notamment dans le e-commerce qui sont très sensible à la montée en charge de leur activité pendant certaines périodes ». Si les allées du salon ont bruissé de la compétition entre des services des providers et les opérateurs, ces derniers ont démontré qu'il fallait compter sur eux, « il ne faut pas réduire le cloud au datacenter », prévient Michel Calmejane, DG France de Colt et d'ajouter « la mise en place de SLA, les outils de sécurisation, la localisation des données sont aussi importants ».
IBM va doper ses serveurs avec des puces spécialisées
Les serveurs s'appuyant sur des designs génériques de processeurs conviennent parfaitement pour certaines applications. Néanmoins, pour accélérer certains traitements, IBM prévoit de leur adjoindre des co-processeurs de sa fabrication, ainsi que des circuits spécialisés. C'est ce qu'a expliqué Jai Menon, directeur technique de la division Systèmes et Technology d'IBM, à l'occasion d'une interview donnée la semaine dernière à nos confrères d'IDG News Service.
Big Blue va continuer à proposer des serveurs de base avec des processeurs x86. Mais, de plus en plus, il va aussi disposer de configurations serveurs et d'appliances optimisées pour des domaines particuliers, comme le cloud computing, les traitements transactionnels ou des secteurs d'applications tels que la médecine. « Tout le monde n'a pas besoin des mêmes machines, rappelle Jai Menon. Les systèmes x86 ne constituent pas une réponse adaptée pour tout, pas plus que les systèmes à base de Power ».
Certains pas ont déjà été faits dans cette direction, par exemple avec l'appliance CloudBurst (photo ci-dessus, à gauche), conçue pour accélérer les déploiements d'applications dans le cloud et les environnements virtualisés. Ou encore par l'adjonction de processeurs graphiques Nvidia en complément des processeurs dans certains serveurs lames pour booster les application scientifiques et mathématiques.
Des circuits reprogrammables
IBM développe maintenant des puces et des circuits reprogrammables qui peuvent décharger le processeur de certaines tâches, indique Jai Menon. Big Blue crée aussi un nouveau langage de programmation qui pourra fonctionner en tandem avec les accélérateurs afin de doper la performance du système.
En février, le groupe de Sam Palmisano a annoncé le processeur PowerEN (Power Edge of Network, photo ci-dessus, à droite) qui peut être utilisé de façon assez large, ou bien en tant que co-processeur vers lequel certains traitements, tels que des tâches réseaux, peuvent être transférés. La puce sera intégrée dans des serveurs et également proposée sur des cartes à insérer dans un port PCI (peripheral component interconnect).
IBM met par ailleurs l'accent sur les circuits FPGA (field-programmable gate arrays) qui peuvent exécuter des tâches spécifiques plus rapidement que les processeurs, par exemple, le chiffrement de données ou des transactions bancaires. Le constructeur en utilise déjà dans des serveurs pour les traitements XML.
Des modifications sont nécessaires au niveau de la couche logicielle pour tirer le meilleur parti de ces composants associés, précise Jai Menon. IBM supporte le standard OpenCL, un jeu d'outils de programmation conçus pour développer et gérer l'exécution de tâches parallèles entre des processeurs et des puces graphiques. Big Blue essaie de rendre les FPGA adaptables et facilement reprogrammables au travers d'un langage compatible Java baptisé Lime, toujours en phase de recherche, a ajouté le directeur technique. « On aimerait programmer les FPGA comme on le fait en programmation classique afin de pouvoir reconfigurer ces circuits à la volée pour les affecter à une nouvelle catégorie d'applications », explicite-t-il.
Selon lui, les FPGA reprogrammables pourraient réduire le besoin en Asic (application-specific integrated circuits), ces circuits spécialisés assignées à certaines tâches « Les Asic ne sont pas adaptables et ils sont longs et coûteux à élaborer ».
Cap sur les mémoires à changement de phase
A plus long terme, Jai Menon pense que les mémoires à changement de phase (phase-change memory, PCM) pourraient remplacer les actuelles mémoires dynamiques (DRAM) et révolutionner la façon dont les serveurs sont construits. Les PCM utilisent un matériau proche du verre qui peut passer de multiples états vers des formes cristallines en fonction de la façon dont ses atomes sont réarrangés.
« Elles sont suffisamment abordables pour qu'on puisse les rapprocher des disques et suffisamment rapides pour s'apparenter à de la mémoire », détaille Jai Menon. Lorsque leur prix diminuera, les utilisateurs pourront disposer de 5 à 10 fois plus de mémoire dans les serveurs par rapport à ce qu'apportent aujourd'hui les DRAM, affirme le directeur technique.
Ces mémoires seront par ailleurs non-volatiles. Les données ne seront pas perdues si l'alimentation d'un serveur tombe. « Vous pourrez concevoir différemment vos systèmes de gestion de fichiers et vos bases de données, et ces composants ont le potentiel nécessaire pour parvenir à diviser par trois la consommation électrique et le volume d'espace utilisé par les serveurs. »
IBM va continuer à développer ces PCM et les intègrera à ses serveurs, promet Jay Menon, sans indiquer toutefois à quelle échéance. Des industriels comme Samsung et Numonyx travaillent aussi sur les mémoires à changement de phase.
Illustration : Offre CloudBurst (à gauche), processeur PowerEN (à droite) - crédit photo : IBM
| < Les 10 documents précédents | Les 10 documents suivants > |