Flux RSS
Infrastructure serveur

2924 documents trouvés, affichage des résultats 1001 à 1010.
< Les 10 documents précédents | Les 10 documents suivants > |
(05/07/2010 17:59:37)
France Telecom détaille son programme de re-conquêtes 2015
Après le traitement de cheval à la mode Thierry Breton, la mise au pas du marketing et des ingénieurs à la sauce Didier Lombard, on attendait beaucoup de la vision de Stéphane Richard, directeur général de France Télécom. L'opérateur historique a été secoué à l'automne dernier par plusieurs suicides qui ont chamboulé l'organigramme de la société, avec la mise au placard de Didier Lombard et le départ de Louis Pierre Wenes et a entraîné une réflexion sur le projet d'entreprise. Fort de ces discussions avec les salariés, Stéphane Richard a donc dévoilé son plan, baptisé « Conquêtes 2015 », même si le dirigeant a plusieurs fois parlé de reconquêtes. Elles sont au nombre de quatre.
Un contrat social à 900 millions d'euros
En tête de ce plan, « il faut remettre l'humain au coeur de France Telecom » a martelé le responsable de l'opérateur historique. Cela passe par plusieurs éléments. En premier lieu, le recrutement de 10.000 salariés d'ici 3 ans (3500 devraient être finalisés en 2010). Orange va subir d'ici 2018 un choc démographique avec le départ à la retraite de près de la moitié des salariés. Aujourd'hui, l'âge moyen des salariés est de 47 ans a rappelé Stéphane Richard. Pour transformer les relations sociales, la direction de France Telecom a lancé un grand plan de rénovation du SI, « cela semble une évidence, mais l'amélioration des expériences utilisateurs à travers des applications plus adaptées est importante » souligne le directeur général. Les managers du groupe vont également bénéficier de la mise en place de formation interne à travers les Orange Campus, dont le premier ouvrira à Montrouge en janvier 2011 (plusieurs ouvertures sont prévues en France et dans le monde).
Crédit Photo: France Telecom
[[page]]
L'opérateur souhaite aussi lancer des grandes causes pour fédérer les salariés autour d'un projet. Cela sera le cas pour le recyclage des mobiles, où la moitié des 30 millions de terminaux vendus chez Orange devront être recyclés d'ici 2015. Au total, l'intégration de ce nouveau contrat social est estimée à 900 millions d'euros.
Les réseaux, la redécouverte d'une pépite
Un temps délaissé au profit des contenus, Stéphane Richard a placé en deuxième position, les réseaux. « Il n'y a pas de révolution technologique sans les réseaux » a-t'il martelé et d'ajouter « les opérateurs ne sont pas à la périphérie et un frein au développement du numérique, mais nous sommes au coeur et les moteurs de cette transformation ». France Telecom va donc investir dans les réseaux. Sur la fibre optique, l'investissement sera de l'ordre de 2 milliards d'euros et l'objectif de couverture est de 40% de la population en 2012 avec une présence dans toutes les régions et dans tous les départements en 2015.
Sur le haut débit mobile, le dirigeant se déclare techniquement prêt à travers son expérimentation du LTE (Long Term Evolution) dans la banlieue parisienne. Il attend un cadre réglementaire clair pour se lancer. Le cloud computing et les datacenters sont également un enjeu industriel pour l'opérateur historique. « Des investissements seront réalisés en France et en Europe dans ce domaine, car les entreprises insistent sur cette présence territoriale » explique le dirigeant sans pour autant fixer le montant de cet investissement.
Un service client adapté et une expansion internationale
3ème étage du plan « Conquêtes 2015 », la relation client va être toilettée et subir quelques ruptures avec le passé. Ainsi, il va y avoir une réduction des offres pour simplifier le catalogue de l'opérateur.
[[page]]
Stéphane Richard est également partie à l'assaut des offres illimitées sur smartphones, qu'il a qualifié de modèle tarifaire « rustique » et d'ajouter « il faut mettre en place un plan tarifaire pour garantir la qualité de service et rétablir une forme de logique économique sur une ressource rare, le spectre ».
Autre rupture, la présence de France Telecom dans le monde des contenus va être réorientée vers des partenariats sous de multiples formes, donc l'opérateur ne sera plus tout seul dans l'aventure. Il recherche ainsi un partenaire audiovisuel pour ses chaînes de télévisions, Orange Sport et Cinéma Séries. Ces deux offres ont cumulé 800 000 abonnés sur une base installée de 2,7 millions d'abonnés. Le directeur général a jugé que ces offres n'avaient pas permis le recrutement de nouveaux abonnés et l'incertitude juridique autour du modèle d'exclusivité ajoute à la volonté de réorienter sa stratégie des contenus.
Le service client va également évoluer vers un « coaching du numérique » pour accompagner les abonnés vers ces évolutions technologiques. Cette orientation ne sera pas uniquement propre à la France, mais le groupe entend le développer au niveau international. L'objectif est le recrutement de 100 millions d'abonnés d'ici 2015 sur l'ensemble des territoires couverts par France Telecom, soit 300 millions de clients ou « 5% de l'humanité » souligne en toute modestie Stéphane Richard.
Ce dernier doit maintenant expliquer et convaincre les salariés de l'opérateur historique sur son plan qui à la différence de ses prédécesseurs est sur 5 ans et non sur 3 ans. « Je ne changerais pas l'entreprise en 12 ou 18 mois, cela prendra du temps » a-t'il avertit. Rendez-vous est pris à la rentrée pour une journée avec les investisseurs et les analystes pour leur soumettre une évaluation comptable de « Conquêtes 2015 ».
EMC ferme son service de stockage Atmos Online
Quelques phrases sur le site Internet de l'éditeur montrent qu'il ne commercialisera plus Atmos Online et qu'il le cantonnera au seul développement. Comme indiqué sur le site, il n'y aura plus de création de comptes et les anciens clients sont avertis qu'EMC ne garantit plus le support et les niveaux de services pour Atmos Online. Il leur demande donc de migrer les données critiques ou les applications vers des prestataires de l'offre classique Atmos, basée sur des NAS pour gros volumes de données.
Pour certains analystes, la réorientation de ce service s'explique par le faible nombre de clients. Pour d'autres, comme Teri McClure, analyste chez Enterprise Strategy Group « EMC ne veut pas concurrencer ses propres logiciels avec ce service en ligne, d'où la restriction d'utilisation ». Ce n'est pas la première fois que le spécialiste du stockage souhaite devenir un fournisseur de service sur ce sujet. Au début des années 2000, il avait créé un service d'hébergement de manière expérimentale, sans le lancer commercialement in fine.
Dell se renforce dans la virtualisation des datacenters
Avec le rachat de Scalent System, Dell ajoute une brique supplémentaire à son offre infrastructures. Les solutions de gestion de Scalent fournissent la capacité de gérer l'ensemble des serveurs physiques et virtuels, avec un minimum d'intervention sur le réseau. Elles peuvent aussi bien fonctionner avec les hyperviseurs Vspehre de VMware et Hyper-V de Microsoft.
Si aucun montant n'a été annoncé sur l'acquisition, Dell devrait rapidement intégrer les solutions de Scalent au sein de son propre logiciel, AIM (Advanced Infrastructure Manager) à destination des datacenters. Ce dernier donne aux administrateurs la possibilité d'allouer des ressources de calcul, de stockage et d'accès à des applications virtuelles depuis une seule console.
Scalent a été fondée en 2003 et réside à Palo Alto. Le rapprochement avec Dell n'est pas anodin, car en septembre 2009, la firme californienne avait signé un accord OEM avec Dell, pour fournir ses solutions à EMC et Unisys. L'acquisition devrait être effective à la fin du mois de juillet.
Silicon Valley 2010 : Réseaux pour datacenter et base de données en cluster (4e partie)
Présidée depuis octobre 2008 par Jayshree Ullal, ex-VP de Cisco en charge du pôle datacenter, Arista nous a reçu dans un élégant immeuble de Menlo Park. La start-up qui compte parmi ses actionnaires Andy Bechtolsheim, le cofondateur de Sun, s'est spécialisé dans les switchs 10 Gbit Ethernet haut de gamme (24 et 48 ports) pour les datacenters, les infrastructures HPC et bien sûr le cloud computing.
Principales caractéristiques techniques des solutions proposées par Arista : un système d'exploitation reposant sur un noyau Linux nommé Extensive OS (EOS) et une architecture structuré autour d'une base de données intégrée (SySDB). Doté d'un système de répartition de charge et d'une capacité de buffering pour réduire la congestion, EOS ambitionne de réduire la latence des commutateurs. De son coté, SySDB concentre toutes les informations nécessaires au bon fonctionnement des switchs. Complétée par des outils de supervisons pour réduire les erreurs humaines, cette base conserve les données concernant les commandes CLI et les protocoles réseau. Vice-président en charge de la technologie, Anshul Sadana explique qu'EOS était plus robuste que l'IOS de Cisco et que leur noyau était particulièrement protégé. Sur un marché du switch 10 Gbit évalué à 9 milliards de dollars en 2014, selon Jayshree Ullal, Arista pense avoir une carte à jouer. « Nous pouvons être une alternative dans les datacenters. Les grandes entreprises sont aujourd'hui obligées de prendre en compte les start-ups si elles veulent profiter de leurs capacités d'innovation » ajoute-t-elle. Aujourd'hui, Arista emploie une centaine de personnes, et revendique 340 clients dans le monde. Principalement des centres de recherche, des universités ou d'autres start-ups.
[[page]]
Switch haute densité
Poursuivons nos rencontres dans le monde du réseau avec Blade Networks Technology (BNT) à Santa Clara dans un immeuble qui domine la fab d'Intel . Pas vraiment une start-up, l'équipementier a été crée en 2006 suite à une spin off de l'activité commutateurs du Canadien Nortel. Financé par le fond d'investissement Garnett & Helfrich, BNT compte à ce jour 170 personnes. Si le produit phare de la marque reste le switch Ethernet mini-rack fourni en OEM à HP, IBM ou NEC, BNT commercialise depuis trois ans des systèmes top of the rack qui autorise la connexion maximale de 40 serveurs dans un module vertical en haut des armoires. Le best-seller de la marque, le RackSwitch G8124, est le premier modèle a être descendu sous la barre des 500 dollars par port 10 GigaEthernet, nous explique Vikram Mehta, le dynamique CEO de Blade Networks (voir photo ci-dessous). « Et en 2009, 500 000 serveurs ont été déployés dans le monde avec des équipements BNT, principalement dans des centres de calculs. Connecter un datacenter est une chose très différente de la connexion d'un PC portable. Il faut assurer la convergence entre des milliers de ports et des centaines de machines virtuelles. »
Avec ses 1000 ports switch virtuels, VMready de BNT permet d'adapter le réseau à la virtualisation. Cette solution s'interface avec les principaux éditeurs d'hyperviseur pour associer un virtual port à une VM. Aujourd'hui, l'intégration la plus avancée a été réalisée avec VMware. « Quand on fait une VMotion (déplacer une VM dans VCenter de VMware), le profil associé suit et reconfigure automatiquement le port », souligne Atul tambe, VP ingénierie matériel chez BNT. Et via les API, VMReady 2 va être capable de s'interfacer et de donner des ordres aux switchs. « Nous vivons aujourd'hui le même phénomène que le passage du mainframe au cluster Linux avec le développement du switch distribué en lieu et place du switch classique », ajoute Vikram Mehta.
[[page]]
Base de données MySQL en cluster
Pour notre dernier déplacement, nous quittons la Silicon Valley pour nous rendre dans le quartier d'affaires de San Francisco à la rencontre de Clustrix. Fondée en 2008 par des anciens d'Isilon Systems, Paul Mikesel et Aaron Passey, cette start-up est soutenue par les fonds d'investissement Sequoia - qui a encore des intérêts dans Isilon - VSVP et ATA Ventures. Basée sur une technologie très proche des baies de stockage distribuée d'Isilon Systems, cette start-up propose une solution pour répartir sans partitionnement une base de données de type MySQL sur plusieurs serveurs. Il s'agit de la technologie Isilon adaptée aux bases de données, ici baptisée Clustered Database Systems (CDS).
Découpée en tranches, la base de données est répartie sur tous les serveurs CLX 4100 en cluster. Ici aussi, le système est une solution complète comprenant logiciel et matériel. Si la configuration de base démarre à 80 000 dollars avec 3 appliances CLX 4100 en mode cluster - équipé de 32 Go de mémoire vive, de 2 x 4 coeurs Intel , de 7 x 160 Go SSD et de2 x 320 Go DD - , il suffit d'installer de nouvelles machines pour accroitre la capacité de traitement et l'espace de stockage. La compagnie n'a pas encore installé plus de vingt noeuds, mais rien n'empêcherait d'aller jusqu'à une centaine de serveurs. « Chaque noeud parle à l'autre en fois connecté en IP pour échanger des informations » explique Paul Mikesel, PDG et en charge de l'ingénierie chez Clustrix . Avec son système, la start-up réussit à combiner les fonctionnalités MySQL avec l'extensibilité et les performances des bases de données non-SQL.
Nous terminons ici notre tournée des start-ups, mais nous vous donnons rendez-vous pour une deuxième session en novembre prochain.
(...)(29/06/2010 15:55:05)SFR lance son offre cloud computing
Les opérateurs télécoms lorgnent de plus en plus vers les services à valeur ajoutée et le cloud computing en particulier. Avec un peu de retard par rapport à son grand rival, Orange Business Services, SFR Business Team a présenté son offre cloud. Le nom de baptême est « Infrastructure SI à la Demande », disponible le 1er juillet prochain et propose une mise à disposition de capacité de traitement informatique et de stockage. Concrètement, le tarif d'entrée est de 2800 euros, comprenant 5 comptes d'administrations, un accès à Internet jusqu'à 100 Mbits et un outil en ligne d'administration et de reporting. A cela s'ajoute, plusieurs formules de serveurs distinguées en Small (2Go de Ram, 1 virtual CPU) pour 120 euros/mois, en Large (4 Go de Ram, 2 virtual CPU) à 240 euros/mois et enfin Extra Large (8 Go de Ram, 4 virtual CPU) pour 460 euros/mois. En matière de stockage, le coût du Go mensuel est de 0,29€. Enfin, plusieurs OS seront disponibles, Debian (gratuit), Red Hat (25€/mois) et Windows (Web Serveur 20€/mois, Standard à 218€/mois et Entreprise à 292€/mois). Au regard des tarifs, Paul Corbel, directeur général de SFR Business Team indique : « nous visons d'abord les grandes entreprises pour connaître et comprendre le marché ».
Une automatisation version HP
Sur le plan technique, l'opérateur s'est associé avec HP pour déployer son offre en misant sur l'automatisation des processus. A partir d'un extranet, le DSI pourra choisir sa machine virtuelle, sa capacité de stockage (dans une limite de 3 To), plus certains outils de développement (LAMP, etc). En matière de virtualisation, Arnaud Bertrand, directeur des opérations techniques dans la BU Services Hébergés SFR Business Team souligne « nous supportons dans un premier temps VMware, mais très prochainement nous utiliserons KVM et par la suite HyperV ». L'activité entreprise de l'opérateur dispose de 6 datacenters en France (Lyon, Marseille, Bordeaux, Strasbourg, Caen et Paris).
[[page]]
Dans certains de ces centres, l'infrastructure serveurs repose sur les solutions Blade Matrix d'HP.
Sécurité et contrat français
SFR Business Team entre donc en concurrence avec d'autres opérateurs qui se sont lancés dans l'aventure cloud. Les critères de différenciation sont multiples selon Paul Corbel, « la première est la sécurité, c'est une exigence de nos clients. Nous apportons notre expertise du réseau pour apporter des solutions comme la mise en place d'un lien VPN pour les machines virtuelles, intégration de firewall, données redondées sur 2 datacenters, une disponibilité 24h/24 et 7j/7 ». Il ajoute « une autre demande forte réside dans l'hébergement des données en France ». Le contrat de cloud signé est ainsi de droit français et Laurent Jacquet, directeur marketing de la BU Services Hébergés précise « la réversibilité du contrat est effective, un client pourra récupérer l'ensemble de ces données stockées et il aura à sa disposition son image VMware ».
Aucun objectif n'a été fixé par Paul Corbel sur cette offre « nous sommes dans une phase d'éducation du marché » et de constater « il y aura certainement des évolutions vers le mode PaaS (Plateforme as a Service) » sans préciser de date. Aujourd'hui, l'opérateur adresse en direct le haut du marché, mais devrait se tourner vers sa force de vente indirecte pour viser le marché des grosses PME, la prochaine cible de l'offre cloud de SFR Business Team. Le dirigeant rappelle que le marché de l'hébergement croit de 10% chaque année.
Avec River, SAP prépare des applications pour le cloud public
SAP segmente sa stratégie cloud entre différentes plateformes de développement. L'une d'elles porte le nom de code « River ». C'est elle qui va supporter les extensions légères destinées à compléter la suite de gestion intégrée que l'éditeur vend aux grandes entreprises. La première application basée sur River, Carbon Impact 5.0, sera présentée le mois prochain et pourra fonctionner sur EC2 (Elastic cloud compute), le cloud d'Amazon.
L'actuelle version de l'offre Carbon Impact, qui permet aux entreprises de mesurer leur impact environnemental, notamment en évaluant leur empreinte carbone (issue d'une acquisition de SAP), est déjà disponible à la demande, mais pas sur un cloud public.
Des développements déjà bien avancés
Cela fait dix-huit mois que SAP travaille sur River, a précisé Vishal Sikka, le directeur technique de la société, dans une récente interview. Les applications River ont vocation à être simples à utiliser. Constituées de quelques douzaines d'écrans, elles sont faciles à assembler et à étendre, a par ailleurs expliqué le dirigeant. Selon lui, l'éditeur a déjà bien avancé sur River dans des domaines tels que la sécurité et l'authentification des données, « qui dans bien des cas font franchement défaut dans 'l'atmosphère' du cloud », estime-t-il.
River sera ouvert aux partenaires avec le temps, de même que d'autres services d'infrastructure, a encore indiqué Vishal Sikka. « La première application sera sur Amazon, mais la plateforme est destinée à être exploitée, au fur et à mesure, sur de multiples clouds, y compris le nôtre. » SAP a choisi d'aller sur EC2 en premier parce qu'il dispose d'une grande expérience sur ce terrain, a ajouté Vishal Sikka. « C'est une façon intéressante de livrer cette première application, mais ce ne sera certainement pas la seule ».[[page]]
En attendant, des applications cloud plus complexes seront basées sur la plateforme de Business ByDesign, la suite de gestion intégrée 'à la demande' qui s'adresse au marché des petites et moyennes entreprises. Disponible depuis septembre 2007 et, depuis lors, limitée volontairement par SAP à une centaine de clients dans le monde (dont une dizaine en France), cette suite intégrée pour PME va s'ouvrir à davantage d'utilisateurs en juillet.
Contrairement à ce que certains éléments avaient laissé penser, la plateforme acquise en 2006 par SAP avec le rachat de l'éditeur de solutions e-sourcing Frictionless Commerce ne devrait finalement pas jouer un rôle central dans la stratégie 'on-demand' de l'éditeur. Cela ne semble plus d'actualité. Cette plateforme « fournit un jeu de composants unique pour des applications de type sourcing », explique Vishal Sikka. Mais son usage devrait se limiter à ce champ fonctionnel.
Au-delà du portefeuille d'applications 'on-demand' qu'il développe (notamment sur la Business Intelligence, mais aussi sur d'autres solutions), SAP ne va guère plus loin dans le cloud avec son offre classique. Par exemple, si les clients peuvent utiliser des services publics tels que ceux d'Amazon à des fins de développement et de test, Vishal Sikka ne vois pas de systèmes ERP de production être exploités de cette façon de sitôt, dans un avenir prévisible, en tout cas. [[page]]
« La technologie n'en est pas arrivée au point où vous pourriez exploiter sur un cloud public une application très sensible pour l'entreprise, et il n'y a pas une seule raison à cela, mais plusieurs », relève-t-il. Il cite bien sûr les habituelles préventions associées au cloud, telles que la confidentialité des informations, l'intégration de données ou encore les obstacles règlementaires. Mais le directeur technique pointe aussi une dimension généralement perçue comme un l'un des bénéfices des clouds publics : leur 'élasticité', c'est-à-dire leur capacité à ajuster les ressources fournies en fonction de la demande. Il présente cela comme un piège potentiel.
Des ressources matérielles trop uniformes : un piège
« Les applications 'critiques' d'entreprise mettent à l'épreuve les ressources sous-jacentes d'un système de bien des façons » rappelle Vishal Sikka. Les applications à la demande telles que la solution de CRM de Salesforce.com ne sont pas très complexes, selon lui. Au contraire, la suite de gestion intégrée de SAP (la Business Suite) met en oeuvre, de façon continue, un grand nombre de processus différents.
« Vous lancez des fonctionnalités analytiques, des processus de longue haleine, des traitements complexes comme ceux qu'impliquent des applications telles que la planification de la demande (demand planning) ou celle des ressources, par exemple ». Par conséquent, estime-t-il, l'approche la plus adaptée dans cette situation, en termes de ressources matérielles, n'est peut-être pas celle qui présente une architecture technique trop uniforme.
Les stratégies d'Azure et d'EC2 pourraient converger avec le temps
Alors que le cloud Windows Azure se présente comme une « platform as a service » (PaaS), fournissant aux développeurs les outils dont ils ont besoin pour construire et déployer des applications web en ligne, le cloud EC2 d'Amazon est avant tout une « infrastructure as a service » (IaaS), offrant un accès à la demande pour des instances de machines virtuelles personnalisables.
A l'occasion du Cloud leadership Forum, récemment organisé par IDC et IDG Enterprise (Santa Clara, 13-15 juin), Tim O'Brien, directeur senior du groupe stratégie plateforme de Microsoft, a comparé les mérites respectifs des deux types de plateformes. Un point de vue qu'il a également présenté à nos confrères de Network World. En premier lieu, Azure simplifie la mise au point d'applications web, ce que ne fait pas Amazon. En revanche, les machines virtuelles d'EC2 présentent l'intérêt de fonctionner avec de multiples modèles de programmation, souligne Tim O'Brien. Selon lui, à terme, l'éditeur de Windows Azure va probablement évoluer davantage vers le modèle IaaS, tandis qu'Amazon fera le chemin inverse vers le PaaS.
PaaS : un modèle de programmation agnostique
« C'est une épée à double tranchant, a-t-il expliqué lors de l'interview. Ce qui est apprécié avec les IaaS, c'est leur modèle de programmation agnostique. Les hyperviseurs de type 1 (machines virtuelles bare metal) ne se préoccupent pas du langage utilisé pour écrire l'application. Peu importe les outils que vous utilisez et les runtimes que vous ciblez. Si l'application fonctionne sous Windows ou Linux, donnez-lui une machine virtuelle et elle fonctionnera très bien. Le problème réside dans le travail supplémentaire que cela représente. Vous êtes responsable de cette machine virtuelle de la même façon que vous l'êtes pour un serveur situé sous votre bureau. C'est vous qui la mettez en route, vous qui l'arrêtez, vous qui lui appliquez les correctifs ou mises à jour nécessaires. Si Red Hat fournit une rustine Linux et que vous avec une machine virtuelle Linux qui s'exécute sur Amazon, vous devrez appliquer cette rustine vous-même. Personne ne le fera à votre place ».[[page]]
Autant d'inconvénients qui n'existent pas avec le modèle PaaS où ces questions sont hors de propos. « Le développement s'y fait de façon fluide : vous codez une application, vous la déployez et elle fonctionnera sur la plateforme fournie par ces runtimes. Dans notre cas, il s'agit de PHP, C#, dans le cas de Google [App Engine], c'est Python et Java. » Néanmoins, le Paas comporte lui aussi ses points faibles. Il est en effet facile d'y bâtir de nouvelles applications, sans avoir besoin d'installer de serveurs en interne ni de logiciels (si ce n'est un navigateur web). En revanche, le modèle PaaS n'est pas forcément optimal pour faire migrer les applications existantes du datacenter vers le cloud.
Les différences entre les modèles vont s'estomper
Microsoft a déjà annoncé qu'il comptait donner (probablement dans les douze prochains mois) la possibilité d'installer un hyperviseur de type 1, pour que vous y faire tourner les applications, a rappelé Tim O'Brien. De son côté, Amazon propose d'une part sur EC2 des machines virtuelles offrant un choix de systèmes d'exploitation Windows ou Linux, et d'autre part, dans le cadre de son activité Amazon Web Services différents outils qui peuvent servir aux développeurs, notamment des bases de données, des services de stockage et d'équilibrage de charge. Tim O'Brien s'attend donc à ce qu'Amazon construise, à terme, une offre PaaS qui ressemblerait davantage à ce qu'est aujourd'hui Azure plutôt qu'à l'actuel EC2.
[[page]]
Pour l'instant, « la question n'est pas de savoir si l'un des modèles [IaaS ou PaaS] est meilleur que l'autre : ils permettent des choses différentes », statue le directeur senior du groupe stratégie plateforme de Microsoft. Néanmoins, Tim O'Brien croit qu'une convergence va s'opérer sur le marché entre les deux modèles avec, d'un côté, des fournisseurs d'IaaS comme Amazon qui mettront en place les éléments nécessaires pour devenir des PaaS. Et de l'autre, des sociétés comme Microsoft qui complèteront leurs capacités d'infrastructure dans une direction qui facilitera grandement les scénarios de migration. Les différences entre les deux modèles vont alors s'estomper.
Le cloud privé présente peu d'intérêt pour les PME
Lors de son intervention sur le Cloud Leadership Forum, Tim O'Brien a rappelé que les services de cloud public n'apportaient généralement pas autant de personnalisation que les clients le souhaitaient. Malgré tout, le modèle du cloud gagne en popularité à la fois parmi les utilisateurs de grandes entreprises qui voudraient contourner leur département informatique, et au sein des PME qui, elles, cherchent à se débarrasser des problématiques IT. Ces dernières ne vont pas se mettre à installer de clouds privés. « L'expression ne figure tout simplement pas dans leur vocabulaire. Ce qu'elles veulent, c'est faire tourner leur entreprise avec des PC et des téléphones portables et s'affranchir totalement des questions informatiques », souligne Tim O'Brien. A l'évidence, les clouds privés n'apportent pas la même économie d'échelle que les clouds publics, insiste le dirigeant. Selon lui, le coût total de possession par serveur dans un datacenter de 100 000 serveurs est moitié moins élevé que dans un datacenter de 1 000 serveurs.
L'objectif de Microsoft est d'offrir aux clients dans le cloud des fonctionnalités identiques à ce qu'ils auraient s'ils installaient eux-mêmes le logiciel, affirme-t-il. « Si vous pouvez développer une applications pour Windows Server, vous devriez être capable de l'écrire aussi pour Windows Azure », conclut-il.
Pour l'instant toutefois, Microsoft lui-même reconnaît que les versions cloud de ses logiciels n'offrent pas encore l'intégralité des fonctionnalités disponibles dans les versions classiques.
Les prix de la DRAM amorcent une baisse contrôlée
Cette baisse est importante pour les acquéreurs d'ordinateurs, car le prix élevé des DRAM représentait une part non négligeable d'un PC. Cependant, l'inflexion tarifaire constatée peut-être le signal d'un revirement du marché. La pénurie du début d'année a été compensée par une augmentation forte de la production de puces. Les analystes tablent maintenant sur un glissement baissier progressif pour le reste de l'année.
Gartner prévoit une légère diminution du prix moyen de vente pour le reste de 2010. Cela permettra aux producteurs de DRAM de maîtriser les coûts et de garder ainsi une bonne marge bénéficiaire. Dans son étude Semiconducteur DQ, le cabinet d'étude indique que la DRAM était devenue très onéreuse au début 2010. Elle représentait jusqu'à 15% du coût total d'un micro. Gartner estime donc que cette baisse est une bonne nouvelle pour les fabricants de PC, leur laissant une plus grande marge de manoeuvre dans les négociations avec les fondeurs.
La DRAM est commercialisée comme une marchandise en raison de l'énorme quantité de puces produites chaque année. Environ 20 pour cent des composants sont vendues en direct tandis que les mémoires restantes sont écoulées via des contrats avec les fournisseurs de PC.
[[page]]
Les prix négociés ont diminué pour la 1 Go DDR3 1066 MHz puces DRAM (double débit de données, de troisième génération) à 2,40 dollars à la fin de la semaine dernière, selon Gartner, alors que le prix en direct de la même puce a diminué de 0,4 pour cent à 2,71 dollars. En avril et en mai, il fallait compter 3 dollars pour le même composant.
InSpectrum, qui effectue des tableaux de bord en ligne des prix des différents types de mémoires, prédit des prix encore plus bas d'ici la fin de l'année, en raison d'un plan d'investissement de Samsung. En effet, ce dernier a annoncé en mai, la création d'une ligne de production cette année pour 9,7 milliards de dollars (le double des investissements initialement prévus). L'augmentation de la production aura certainement un effet sur les prix, mais peut également avoir un impact sur les concurrents de Samsung. On se souvient qu'en 2009, le fabricant de DRAM Qimonda a déposé son bilan, tandis que Powerchip Technology (anciennement Powerchip Semiconductor) et ProMOS Technologies ont demandé l'aide du gouvernement taiwanais. (...)
Selon IDC, les responsables IT veulent mixer cloud privé et public
Il existe plusieurs définitions sur le cloud privé et plusieurs personnes estiment qu'il s'agit d'un nouveau terme pour décrire les efforts d'intégration IT, qu'ils réalisent dans leur travail depuis quelques années. IDC le définit lui comme une ressource cloud interne à l'entreprise où l'organisation IT est du ressort du fournisseur de service, en proposant un accès simple et en libre-service, éventuellement par le biais d'un navigateur, ainsi que des options de paiement à l'utilisation.
Ce concept est apparu au cours des dernières années, mais les départements informatiques ont résisté en persistant dans la construction de systèmes intégrés, efficaces et au déploiement rapide. Puis, Ils ont commencé à remarquer que certains acteurs du cloud public avaient atteint les mêmes objectifs qu'eux en construisant de centres de données à partir de zéro. « Ils ont dit, pourquoi ne pas faciliter le travail du CIO en empruntant des éléments du cloud public ? » explique Franck Gens, analyste en chef chez IDC.
L'étude du cabinet d'analyse montre que de plus en plus de sociétés portent un intérêt pour l'utilisation croisée des deux types de cloud, avec une petite préférence pour le privé. Quand on demande quel service spécifique ils souhaitent porter sur le cloud, 75% des sondés répondent les applications de collaboration et 53% les courriels. « Il semble que le confort soit plus grand avec le cloud privé par rapport au public » précise l'analyste. Pourtant, il pense que les entreprises utiliseront les deux clouds en ajoutant « si vous méprisez l'idée du cloud privé, vous êtes en danger, et si vous êtes un arrogant évangéliste du cloud privé, sachez que le public apporte beaucoup de solutions. Virtuellement chaque client, au moins dans les entreprises moyennes, utiliseront un mix des deux ».
Plusieurs applications individuelles devraient aussi utiliser différents types de cloud, avec par exemple, les données sur l'un et l'exécution sur l'autre.
IDC prévoit une croissance importante des services de cloud public dans les prochaines années. Les revenus issus ces services sont estimés à 16 milliards de dollars en 2009 et devraient atteindre 55 milliards de dollars en 2014.
Geforce 280 contre Core i7, une étude Intel confirme la supériorité de Nvidia
En moyenne, la Nvidia GeForce GTX 280 - commercialisée en juin 2008 - était 2,5 fois plus rapide que l'Intel Core i7 960 cadencé à 3,2 GHz processeur, et dans certaines circonstances jusqu'à plus de 14 fois plus véloces selon 12 chercheurs d'Intel. Ces derniers ont publié leurs observations dans un document baptisé Debunking the 100x GPU vs. CPU myth: An evaluation of throughput computing on CPU and GPU. À l'origine, cette étude devait définitivement discréditer les prétentions des puces 3D sur les processeurs Intel en comparant les performances d'un Core i7 et d'une carte exécutant une série de tests conçue pour exploiter les capacités de traitement en parallèle de ces circuits. Comme son nom l'indique, le traitement en parallèle consiste à effectuer de multiples calculs en simultané par opposition un travail en série qui réalise les tâches dans un ordre séquentiel.
Les puces graphiques intègrent aujourd'hui des centaines de noyaux (ou shader) qui sont utilisés pour calculer des polygones et plaquer des textures pour créer des images de plus en plus réalistes. La carte GTX280 de Nvidia intègre l'équivalent de 264 coeurs par socket, tandis que la société a récemment annoncé son GPU Tesla M20 avec 448 noyaux. Ces circuits sont donc bien adaptés au traitement en parallèle alors que les CPU du type Core i7 sont mieux adaptés au travail en série. Cela ne veut pas dire que les puces quatre coeurs d'Intel ne peuvent pas effectuer de calcul en parallèle, mais elles le font beaucoup moins bien que les GPU comme le GTX280. C'est en tout cas ce que confirme l'étude d'Intel.
« C'est un moment rare dans l'univers de la technologie quand une entreprise avec laquelle vous êtes en concurrence affirme à l'occasion d'une importante conférence que votre technologie est jusqu'à 14 fois plus rapide que la sienne » écrit sur son blog Andy Keane, responsable de l'activité calcul GPU chez Nvidia, qui a fourni un lien vers le document du fondeur de Santa Clara.
[[page]]
Andy Keane n'a pas été impressionné par le rendement communiqué par Intel, il affirme que 10 clients de Nvidia clients ont amélioré d'un facteur 100 les performances de leurs applications optimisées pour fonctionner sur des GPU. La comparaison de performances réalisée par la firme n'a probablement pas
utilisé les logiciels les plus optimisés qui auraient permis de meilleurs résultats souligne-t-il. Il note également qu'Intel n'a pas fourni de détails sur le code logiciel utilisé pour ces tests.
« Ce ne serait pas la première fois dans l'histoire de l'industrie qu'Intel se voit reprocher ce type de pratique lors de benchmarks », écrit-il, en fournissant un lien vers la Federal Trade Commission américaine (en charge du contrôle des pratiques commerciales anticoncurrentielles) lors d'une procédure antitrust entamée contre Intel en 2009.
Dans cette action, la FTC fait valoir que des précédents résultats de tests rapportés par Intel « ne sont pas des mesures précises, ni réalistes quant à l'utilisation ou la performance d'ordinateur ordinaire, parce qu'elles n'ont pas été réalisées dans un cadre proche des «conditions réelles».
Indépendamment des différences techniques entre processeurs et GPU, les puces graphiques sont aujourd'hui utilisées dans les systèmes informatiques haute performance, comme sur le super computer chinois Nebulae. Deuxième calculateur le plus puissant au monde combine en effet Intel Xeon et circuit 3D Nvidia. L'ajout de GPU à un système de ce type peut sensiblement augmenter les performances, tout en réduisant les coûts et la consommation d'énergie par rapport aux systèmes reposants sûrs de processeurs, a expliqué Iouri Drozdov, CEO du fabricant de supercomputer Novatte basé à Singapour.
L'année dernière, Novatte a construit un système pour une banque qui voulait baisser le prix de ses machines. Le supercomputer, dont le coût dépasse le million de dollars, repose sur 60 processeurs Intel Xeon et 120 GPU Nvidia. Un système aux performances similaires utilisant uniquement des Xeon coûterait 1,6 million de dollars et consommerait jusqu'à 28% de plus. Ce qui rendrait au final ce dernier plus coûteux à utiliser que le système construit avec les GPU, précise Iouri Drozdov.
Pour sa part, Intel reconnaît l'importance d'avoir une solution de traitement en parallèle afin de compléter sa gamme processeurs. Après avoir tenter de développer sa propre gamme GPU avec le projet Larrabee (vite abandonné), en mai dernier le fondeur de Santa Clara a annoncé le développement d'une puce 50 coeurs baptisée Knights Corner, avec laquelle la société espère concurrencer efficacement les fabricants de puces graphiques sur le segment du calcul haute performance. Intel n'a toutefois pas indiqué quand Knights Corner sera disponible.
< Les 10 documents précédents | Les 10 documents suivants > |