Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1041 à 1050.

< Les 10 documents précédentsLes 10 documents suivants >


(09/06/2010 15:24:01)

Amazon crypte CloudFront, mais fera payer plus cher les utilisateurs

CloudFront sert à distribuer tous types de fichiers qui peuvent transiter via HTTP, y compris les images, l'audio, la vidéo, les fichiers multimédias ou les téléchargements de logiciels. Le service, toujours en bêta test, peut aussi diffuser des flux audio et vidéo sur Internet. Amazon utilisera le cryptage en cas de récupération de données depuis son service de stockage dans le Cloud S3 (Simple Storage Service), de sorte que le contenu soit protégé pendant tout le trajet entre le lieu où il est stocké et l'ordinateur de l'utilisateur. Le HTTPS, utilisé pour le transfert d'informations sensibles ou pour éviter les avertissements de sécurité de certains navigateurs lorsqu'ils détectent un mélange de contenu crypté et standard, selon Amazon, permet essentiellement de garantir l'intégrité du contenu.

Le prix de la sécurité

Selon la liste de tarifs d'Amazon, le coût des requêtes HTTPS a été fixé à 0,01 $ US pour 10 000 requêtes. Comparativement, le coût des requêtes pour le trafic HTTP standard se situe à 0,0075 $ pour 10 000. Selon Amazon, le tarif HTTP a été réduit de 25 % au 1er juin. Les utilisateurs de CloudFront devront bien sûr également payer pour les transferts de données et le stockage de leur contenu. Amazon n'est pas la seule entreprise de services web qui cherche à étendre le cryptage. Récemment, Google a lancé une version bêta avec accès crypté de son site de recherche pour « offrir aux utilisateurs des modalités de recherche plus sûres et plus confidentielles, » a indiqué Google.

Amazon a également ouvert un nouveau site à New York, portant à neuf le nombre total de datacenters sur le territoire américain, en plus de ses quatre sites localisés en Europe et des trois dont elle dispose en Asie. La proximité d'un noeud permet d'améliorer les performances, et 3 dirige automatiquement l'utilisateur vers le site le plus proche, a expliqué Amazon.

(...)

(09/06/2010 15:04:04)

Oracle dévoile Exadata v2 pour SAP

Depuis qu'Exadata a été dévoilé en grande pompe en 2008, les dirigeants se sont vantés d'avoir une autoroute devant eux pour la commercialisation de leur produit, mais les clients désignés publiquement et susceptibles d'utiliser ces systèmes en production ont été difficiles à trouver. Cela pourrait changer après la conférence OpenWorld qui doit avoir lieu en septembre, et pour laquelle est programmée une démonstration d'Exadata  v2 pour SAP. Oracle fonde de grands espoirs sur cette solution, laquelle est capable à la fois de gérer le stockage des données et le profil de charge OLTP (online transaction processing). Et selon une note parue sur le site Web d'Oracle, Exadata version 2 pour SAP, actuellement en cours d'évaluation, devrait être certifié d'ici l'an prochain. Oracle cherche également des utilisateurs SAP pour tester sa plate-forme.

Pendant ce temps, SAP a poussé sa technologie émergente de base de données In-Memory, et envisage de s'associer avec des sociétés comme Hewlett-Packard sur des matériels qui porteront son produit. Au cours de la récente conférence utilisateurs Sapphire organisée par l'entreprise, Vishal Sikka, le CTO de SAP, s'en était pourtant pris à Exadata : « Si vous regardez la machine Exadata, elle comporte toutes les couches que nous avons vu défiler depuis les années 1980, » a t-il déclaré. « Notre point de vue est différent. Nous pensons qu'un matériel utilisant la solution In-Memory peut considérablement réduire  les coûts. Nous croyons que cela va aussi dans le sens d'une simplification des couches. » Grâce à l'acquisition en cours de Sybase, SAP pense également progresser dans la maîtrise de la technologie In-Memory qui permet de stocker l'information dans la mémoire principale, ce qui contribue à améliorer les performances en lecture et en écriture sur les baies de disques. Larry Ellison, dont l'entreprise a créé sa propre technologie de base de données In-Memory, a critiqué la stratégie de SAP, déclarant que prétendre qu'une solution In-Memory viendra se substituer aux bases de données traditionnelles dans le court terme est « complètement fantaisiste.»

 

En photo : Solution Exadata v1 d'Oracle sur base HP, crédit D.R.

[[page]]

Loin de tout ce bruit, la réalité est bien différente, dans la mesure où un grand nombre d'utilisateurs SAP font tourner depuis longtemps leurs systèmes sur les bases de données d'Oracle, et SAP est lui-même un revendeur de cette dernière plate-forme. « Même si les cadres dirigeants affichent  le contraire, la coopération de fond est tout à fait sincère, » a déclaré l'analyste Curt Monash de Monash Research. «Ces grandes entreprises ont créé des passerelles où les personnels doivent coopérer et c'est ce qu'ils font. » SAP pourrait éventuellement développer une vraie solution rivale à Exadata, mais seulement « dans le très long terme, » a t-il ajouté, précisant que « SAP, avant son acquisition de Sybase, n'a jamais été un vendeur important de SGBD. » En écho aux remarques de Larry Ellison, Curt Monash a déclaré qu'« un jour, les systèmes de gestion de base de données seront soit en RAM, soit sur SSD, mais cela ne signifie pas que la technologie SAP va rapidement prendre de l'ampleur. »

Parmi les autres nouveautés, SAP prend désormais en charge Oracle Database 11g R2, pour les applications qui utilisent le noyau SAP 6.40, 7.x et au-delà. Jusqu'ici les entreprises se sont employées à retarder la certification de leur base de données Oracle avant l'arrivée de la version 2, de manière aussi à limiter les opérations de mise à jour pour les clients. « Le processus de certification de la SGBD de SAP est très délicat voire périlleux, » a déclaré Curt Monash. « Il est également bien connu que la seconde version d'une base de données Oracle est plus affinée, » a t-il ajouté.

(...)

(09/06/2010 09:10:14)

Les risques du Cloud Computing analysés par CA Technologies et Solucom

Le cabinet de conseil Solucom et l'éditeur CA technologies ont animé une session de formation sur le Cloud Computing et la sécurités. Le premier évoque les risques liés à la gestion des droits, à la confidentialité et à l'intéropérabilité, le second souligne les points  liés à la conformité réglementaire, la traçabilité, et la gestion du cycle de vie de l'information. Le Cloud émerge dans les entreprises et la sécurité est un sujet de questionnement récurrent. Selon une étude menée par le cabinet IDC, une entreprise sur trois utilise actuellement le SaaS. Le PaaS (Plaform as a Service) et l'IaaS (l'Infrastructure as a Service) sont quant à eux nettement moins répandus (respectivement 7% et 8%). 

Désireuses de maîtriser leurs coûts, les entreprises sont également soucieuses du niveau de sécurité de leurs données basculées sur le Cloud. La perte de pouvoir de la DSI de l'entreprise sur une telle infrastructure ainsi que le manque de maîtrise de la disponibilité des services sont à ce titre souvent cités comme autant de freins. 
Avant d'utiliser un service de Cloud, Gérome Billois, responsable de département chez Solucom, recommande l'analyse préalable de deux indicateurs : le niveau de confidentialité et le niveau de dépendance que l'entreprise est prête à accepter à l'égard de son hébergeur.

En matière de confidentialité, Gérome Billois précise que « lorsqu'une entreprise opte pour le Cloud Computing, elle rencontre des problèmes de gestion des identités et de revue des droits, surtout lors du départ d'un salarié. Après avoir rendu son badge, lorsque les applications sont hébergées sur le nuage, le salarié a toujours accès aux applications sur internet. L'entreprise doit vraiment veiller à supprimer le compte et à ôter les droits ». 
Le suivi doit se faire de manière plus rapide et plus consciencieuse que dans le cas d'une infrastructure traditionnelle. Car le risque est d'autant plus important que les applications métiers sont sur internet.



[[page]]

Par ailleurs, Gérome Billois indique que « le marché du Cloud Computing est assez jeune et n'a pas de standard ». De ce fait, l'entreprise doit souvent s'adapter aux formats de données de son fournisseur. Avec l'émergence du Cloud, le rôle de l'IT interne à l'entreprise risque d'être transformé. Les DSI vont devoir s'adapter et instaurer de nouveaux modes opératoires et de nouveaux processus. Au lieu de gérer en direct les infrastructures, leur fonctionnement et leur évolution, la DSI va devoir contrôler tout ce qui concerne la politique de confidentialité et de sécurité des données. 

De plus, comme l'explique Yves Leroux, stratège en technologie chez CA technologies, l'entreprise devra faire face à de nouvelles problématiques légales. En effet, « elle devra traiter les incidents et chercher le coupable en cas de défaillance et de perte de données ». Elle devra également travailler sur la conformité et mettre en place un audit interne. 
En parallèle, l'entreprise utilisatrice devra gérer le cycle de vie de l'information, depuis sa création jusqu'à sa destruction afin de satisfaire à la politique de confidentialité. Enfin, avant d'externaliser le stockage de ses données sur le nuage, l'entreprise devra penser à la portabilité de ses données, afin d'envisager la manière dont elle les récupèrera si elle décide de ne plus être sur le Cloud.

Malgré un aspect de risque à prendre en considération, l'entreprise tire des bénéfices du Cloud Computing. Par exemple, en termes de coûts, les services applicatifs en mode SaaS lui permettent de ne payer que ce dont elle a besoin. Elle n'a pas à agrandir son infrastructure étant donné qu'elle peut louer davantage de serveurs auprès de son hébergeur en cas de pics de charge. Le Cloud offre également l'avantage de pouvoir rapidement déployer des applications.


(...)

(08/06/2010 17:40:48)

TechEd 2010 : Microsoft promeut un modèle de cloud hybride

« Nous sommes à l'aube d'une transformation majeure pour l'industrie, le cloud computing, qui nous affectera tous », a rappelé le président de l'activité Serveurs et outils de Microsoft, en insistant sur l'ampleur des modifications qui seront nécessaires à sa mise en oeuvre. Dans ce contexte, l'éditeur de Redmond prétend créer les précurseurs du cloud. « Il y a aujourd'hui dans votre environnement beaucoup de choses qui pourraient être fournies sous forme de services », explique en substance Bob Muglia.  

Microsoft cherche à prendre l'avantage sur son propre terrain en transformant ses logiciels existants pour qu'ils puissent gérer ou exploiter des applications sur Windows Azure ou dans les autres offres de cloud basées sur .Net. Ainsi, Bob Muglia a moins parlé d'Azure lui-même que des logiciels qui, de plus en plus, s'adaptent au cloud. Au cours de son intervention sur TechEd 2010, il a évoqué des produits tels que la solution d'administration informatique Systems Center, l'environnement de développement intégré Visual Studio 2010, les logiciels d'automatisation des processus pour le cloud d'Opalis Software (acquis par Microsoft en décembre 2009) et, même Windows Phone 7.

Avec Systems Center, les administrateurs vont pouvoir gérer des copies de SQL Server qui se trouvent à la fois sur des machines locales et dans le cloud. Quant à la version 4 de .Net, qui sera mise à disposition cette semaine, elle permettra aux développeurs de spécifier s'ils veulent que l'application qu'ils conçoivent fonctionne dans le cloud ou en interne.
[[page]]
La technologie d'Opalis Software sera intégrée à Systems Center. Elle permet aux administrateurs de décomposer les services en composants individuels, incluant le système d'exploitation, la base de données, l'OS serveur et le middleware. Il est ainsi possible de mettre à jour un système d'exploitation, par exemple, pendant que le programme tourne. Cela permet aussi à l'administrateur de définir les instances qui peuvent fonctionner pour chaque service. « Opalis apporte un moteur générique qui peut orchestrer les processus au sein d'un environnement IT, explique Bob Muglia. Ce moteur ne fonctionne pas uniquement avec les clients Windows, mais aussi avec les clients Unix et Linux. Il peut aussi s'utiliser avec Microsoft PowerShell », précise-t-il.

Windows Azure et SQL Azure n'ont pas
encore atteint la parité fonctionnelle

Le président de l'activité Serveurs et outils a par ailleurs montré comment Windows Phone 7 fonctionnait dans cet environnement. L'interface de l'OS mobile se compose de panneaux, chacun conduisant à une application ou un service. On pourra, par exemple, accéder à SharePoint pour appeler un document stocké par le portail, le modifier et le renvoyer vers l'instance SharePoint. »

Lors d'une conférence de presse donnée à l'issue de sa présentation, Bob Muglia a reconnu que les actuelles versions des applications Microsoft sur Azure, telles que Windows Azure et SQL Azure, ne disposaient pas de toutes les fonctionnalités des éditions standards des logiciels. Par exemple, la console d'administration des services SQL n'est pas disponible sur Azure. La parité fonctionnelle entre les éditions arrivera plus tard. « Nous travaillons d'arrache-pied sur Azure », a assuré le dirigeant.

(...)

(08/06/2010 12:29:52)

Energy Star arrive sur les datacenters

Le gouvernement américain s'intéresse de près aux réductions de la consommation énergétique des datacenters. En 2006, elle était estimée à 1,5% de l'électricité nationale utilisée, soit 4,5 milliards de dollars par an. Cela représente 5,8 millions de maisons ou 5% du parc de logement américain.

Le programme Energy Star doit inciter les entreprises à rendre leur datacenter plus efficient, car l'apposition du logo Energy Star peut être utilisée comme un argument marketing, signe de leur respect environnemental. Ce projet donnera un moyen de comparer les efforts des sociétés dans ce domaine, par rapports à leurs concurrents, explique Mark Harris, vice-président du marketing produit de Modius, qui propose des outils de surveillance de la consommation énergétique des centres de données.

Pour obtenir ce logo, les datacenters devront se classer parmi les meilleurs des 25% en matière d'efficience énergétique, selon l'échelle des performances établies par l'EPA. Cette dernière estime qu'en améliorant leur efficacité, les centres de calcul peuvent réduire leur consommation d'énergie et leur coût tout en contribuant à la lutte contre le changement climatique. Les niveaux d'efficacité seront calculés en utilisant principalement la mesure PUE (efficacité consommation d'énergie) métriques, qui calcule la puissance totale fournie à un centre de données, divisée par la quantité effective de consommation des équipements informatiques, sans prendre en compte les pertes des systèmes de refroidissement et l'inefficacité des alimentations électriques.

Les clients qui veulent appliquer le logo doivent utiliser l'outil en ligne de l'EPA, Portfolio Manager, qui leur attribue un score d'efficience entre 1 et 100. « Avant de recevoir le label Energy Star, un professionnel agréé doit vérifier de façon indépendante la performance énergétique des bâtiments. Ce document, ainsi réalisé, est ensuite envoyé à l'EPA pour examen et approbation » déclare l'autorité gouvernementale.

Une vocation internationale et des critiques


S'il a été développé aux États-Unis, d'autres gouvernements ont exprimé leur intérêt à adopter le label Energy Star pour les centres de calcul, tout comme ils utilisent le logo Energy Star pour d'autres types de produits.

[[page]]

Ce système a néanmoins suscité quelques critiques, mais il est considéré comme une première étape nécessaire. Mark Harris prévoit que le programme sera révisé à terme avec une mesure qui va au-delà PUE afin de mieux refléter l'efficacité d'un datacenter.  Il indique «c'est peut-être pas parfait mais au moins cette métrique vous permet de comparer votre résultat, certes imparfait, avec vos concurrents de votre secteur » et d'ajouter « la mesure PUE est un résultat assez facile à déterminer, nous le faisons pour les clients chaque jour. C'est donc un bon moment pour commencer. »

L'EPA a essayé de trouver une autre méthode de mesure pour calculer l'efficience énergétique, basée sur la quantité de travail de calcul assurée effectivement par le datacenter. Mais pour l'instant, il s'agit de discussions avec les industriels, qui n'ont pas encore abouti.

« Ceux qui hésitent à prendre part au programme seront souvent les entreprises qui ont peur de révéler comment ils se classent par rapports aux autres entreprises » a déclaré le responsable. « Cela procure une incitation pour améliorer leur efficacité » conclut-il.

(...)

(08/06/2010 11:14:48)

Au Journal Officiel, le Cloud Computing cède la place à informatique en nuage

Comme avec chaque nouveau terme d'origine anglo-saxonne, la commission nationale de terminologie et de néologie vient de rendre un verdict sur le Cloud Computing : il conviendra désormais, en France, de parler d'informatique en nuage. La décision parue au Journal Officiel du 6 juin 2010 vient corriger une décision du 24 avril 2010 qui faisait de ce mot un équivalent du seul mot cloud, une expression abrégée dans sa langue d'origine, ce qui était pour le moins curieux.

Quoiqu'il en soit, cette décision bannit définitivement, par exemples, les concepts d'informatique dans les nuages ou de nuage informatique. Enfin, pour les intégristes de la langue française.
(...)

(07/06/2010 16:34:37)

Dans l'entreprise, le cloud privé concurrence le cloud public

Le terme cloud computing fait référence à des services informatiques achetés et fournis à la demande à travers un réseau : Internet ou un réseau IP privé. La mise en oeuvre s'appuie sur un environnement hautement virtualisé et des systèmes de stockage hébergés dans des datacenters accessibles aux utilisateurs distants à partir d'une interface web. Pour les responsables informatiques, le cloud permet de mettre en route rapidement des ressources IT facilement extensibles, en les payant au mois, voire à l'heure. Les sommes ainsi déboursées entrent en comptabilité sous la forme de charges d'exploitation (contrairement à l'achat de serveurs et de licences qui constituent des dépenses d'investissement à amortir). En contrepartie, le cloud peut poser des problèmes de sécurité, nécessiter de faire des compromis sur les performances et il implique les coûts de réseaux inhérents à son usage.

SaaS et stockage en cloud public

Même s'ils ne le réalisent pas toujours, de plus en plus de DSI font appel à des services de cloud computing, quelquefois présentés, selon l'usage que l'on en fait, sous le nom d'« utility computing », de grid computing ou de software as a service. Une étude d'IDC a récemment montré que 60% des DSI européens recouraient à des services de cloud computing sans toujours le savoir.
Ce marché va progresser de façon significative dans les années qui viennent. L'an dernier, Gartner prévoyait qu'il pourrait atteindre 150 milliards de dollars en 2013 (contre 56 Md$ estimés en 2009).

Une grande partie de la croissance vient des applications hébergées dans des clouds publics, comme les Google Apps ou des logiciels tels que ceux de Zoho, accessibles sur Internet à tout utilisateur muni d'une carte de crédit, quand ils ne sont pas gratuits. Les outils de gestion de la relation client (CRM) ont également connu une adoption significative (popularisés par Salesforce.com), de même que les fonctions de comptabilité et de gestion des dépenses en ligne. [[page]] Autre secteur en plein essor, celui des plateformes apportant des ressources IT, telles que l'Elastic Computer Cloud (EC2) d'Amazon. Ces services permettent aux utilisateurs de louer des machines virtuelles pour développer des applications ou les faire tourner, en payant sur la base d'un tarif horaire. Des services de stockage des données en ligne peuvent également être achetés auprès de Google, d'Amazon et d'autres.

Cloud privé pour l'Armée américaine

Les clouds privés, de leur côté, sont détenus et gérés par des entreprises, et leur usage est réservé à des utilisateurs désignés qui peuvent y exploiter leurs propres services. Certains fournisseurs, parmi lesquels Amazon avec son offre de cloud privé virtuel (Virtual Private Cloud), ainsi que Microsoft, présentent ces offres comme étant l'option la plus probable sur le marché de l'entreprise. Cette hypothèse a été récemment corroborée en France par la publication d'une étude par le cabinet PAC.

Parmi les partisans des clouds privés figure la DISA (Defense Information Systems Agency), du ministère de la Défense américain, qui revendique un service de cloud plus fiable et plus sécurisé que celui de Google. Sa plateforme RACE (Rapid access computing environnement) fournit à l'Armée une puissance de calcul et des applications en ligne sur la base d'un paiement mensuel. Les utilisateurs peuvent réserver leurs services IT sous 24 heures par l'intermédiaire d'un portail web.

On s'attend à ce que les services de cloud privés progressent au sein des services gouvernementaux américains, au-delà du seul ministère de la Défense. Le Directeur des systèmes d'information fédéral, Vivek Kundra, choisi par Barak Obama en mars 2009, encourage les administrations à adopter les ressources fournies par le cloud computing comme un moyen d'économiser les deniers des contribuables et d'améliorer les services IT.

(...)

(07/06/2010 16:19:58)

Cisco-Juniper, une concurrence acharnée sur les datacenters

La bataille a démarré en 1996 lors de la création de Juniper. A cette époque, Cisco régnait en maître, depuis 1984, sur le marché des routeurs pour les entreprises et pour les fournisseurs de services. Mais, avec le développement de l'Internet, les sociétés de capital-risque, ainsi que les clients mécontents de Cisco ont investi dans une start-up pour contrecarrer son hégémonie en particulier vers les ISP. La première année, Juniper a compté sur les investissements de la famille Anschutz (actionnaire majoritaire de Qwest), AT&T, Ericsson, Lucent, Nortel, Siemens/Newbridge Networks, 3Com et UUNET. IBM avait signé un accord pour développer un ASIC pour les routeurs de la jeune société, avec comme premier produit le M40.

Avec ces soutiens de poids, Juniper est devenu le plus redoutable concurrent de Cisco sur les routeurs pour les ISP. L'entreprise dispose d'une part de marché de 30% sur un marché de 8 milliards de dollars. Elle a bénéficié d'un état de grâce, en étant le chouchou des spécialistes pendant 10 ans, en proposant des produits sur mesure, combinant logiciel et circuit dédié.

C'est un élément différentiateur par rapport à Cisco. Ce dernier a été perçu comme un fournisseur de produits de classe entreprise, qui étaient déployés par les entreprises les plus exigeantes en matière de routage. La position dominante sur ce marché a provoqué une forte demande de la part des clients pour une offre alternative. L'apparition de Juniper n'a pas été négative pour Cisco. Celle-ci a été redynamisée par l'émergence d'un nouvel acteur, mais également par la récente progression d'Alcatel-Lucent, dans les activités de routeurs périphériques pour les fournisseurs de services.

Une concurrence multi-support converge vers le datacenter

Et Cisco détient toujours une part de marché importante auprès des entreprises et des fournisseurs de service de routeur, avec une clientèle fidèle. Mais les deux sociétés jouent la course en matière technologique sur le coeur et la périphérie du réseau. Aujourd'hui, cette bataille se déroule sur les multi-châssis pour les coeurs de réseaux avec d'un côté le Carrier Routing System de Cisco contre la série T de Juniper, pour la suprématie dans les capacités de 10 ou 100 Tbits. Cette guerre porte aussi sur l'aspect logiciel, d'un côté Junos et de l'autre IOS.

Juniper occupe également le terrain des datacenters d'entreprises et des environnements de cloud computing. Encouragé par son succès dans le routage, elle a dévoilé, il y a 2 ans, des commutateurs Ethernet, en essayant de devenir une alternative crédible à la position dominante de...Cisco. Juniper souhaite se faire une place sur des marchés de niches, comme les transactions financières, le calcul haute performance et d'autres environnements d'entreprises spécifiques. Sur le datacenter, les deux sociétés ont noué des partenariats stratégiques, Cisco avec EMC et Juniper avec IBM. L'enjeu, simplement sur les questions de routage, représente une opportunité de plusieurs milliards de dollars (85 milliards de dollars dans le cloud privé en 2015 selon Cisco). L'objectif est de devenir le leader sur un marché très lucratif des datacenters de prochaine génération et d'en profiter pour verrouiller l'accès à ce marché pour d'autres concurrents, comme Arista, F5 networks. Juniper devrait dévoiler prochainement son projet Stratus, qui vise à structurer et simplifier les datacenters, avec une réduction des couches réseaux. Ce projet entre directement en concurrence avec les Nexus, de Cisco, basés sur l'architecture Unified Communication System.


Illustration: Switchs Juniper

(...)

(07/06/2010 16:11:37)

HP oriente ses recrutements vers les datacenters

De plus en plus de sociétés cherchent des professionnels capables de gérer les prochaines évolutions du datacenter, avec une expertise dans la vente et la livraison de services IT. HP n'a pas encore spécifié quels postes seraient concernés par ces suppressions, mais James Staten, analyste chez Forrester Research, prévoit que les principaux postes touchés seront les administrateurs systèmes. Pour les 6000 recrutements, l'orientation, selon l'analyste, sera clairement vers les fonctions architecture IT et ingénieurs commerciaux.

HP a déjà prévenu que cette évolution de sa branche Entreprise Service prendra quelques années. Dans une conférence téléphonique avec les investisseurs, les dirigeants d'HP ont indiqué que le plan de restructuration était la dernière étape de l'évolution de ses services opérationnels, un élément clé depuis le rachat d'EDS en 2008, se traduisant par l'apport de 137 000 employés. La société explique que la restructuration intègre la consolidation des datacenters et la gestion des plateformes, pour une plus grande automatisation de la délivrance d'applications pour les clients. « Nous pensons aux 5 et 10 prochaines années qui nous amènent à réfléchir sur la meilleure technologie à utiliser dans le cadre de cette automatisation » déclare Ann Livermore, vice-président exécutif de la branche Entreprise Business.

Ce plan constitue aussi la suite des efforts réalisés sur l'accord EDS, prévoyant la réduction du datacenters de 85 à 6, en intégrant des produits standards et effectuant un ménage dans les équipements et les logiciels, redondants ou obsolètes. Depuis, HP a gagné des contrats sur les centre de données, dont la plupart ont été remportés à travers des accords d'externalisation. Martin Reynolds, un analyste de Gartner, explique que l'activité services a gagné en efficacité par l'acquisition de datacenters, « mais pour HP, cela ne va pas aussi bien que souhaité ». L'analyste prévoit qu'HP continue sa politique de rationalisation en se tournant vers les applications x86 pour la consolidation et la virtualisation plutôt que vers les mainframes et les systèmes Unix. « Ils regardent toutes les applications x86 non virtualisées pour les intégrer dans un environnement géré par HP » souligne Martin Reynolds.

(...)

(04/06/2010 17:57:23)

Des éclaircissements sur Azure attendus sur Microsoft TechEd

Du 7 au 10 juin se tient l'édition nord-américaine de la conférence TechEd de Microsoft, à la Nouvelle Orléans. A cette occasion, on peut penser que l'éditeur va fournir d'autres détails sur Windows Azure et sa stratégie de cloud computing. De nombreux sujets pourraient être abordés sur ce terrain : ses efforts pour concurrencer les Google Apps, les questions de sécurité sur le cloud, le modèle d'utilisation de Windows dans les services de cloud... Mais plus encore, certains observateurs jugent que la stratégie autour d'Azure mérite des éclaircissements.

Drue Reeves, analyste au Burton Group, attend de la part de Microsoft une avancée importante concernant Azure. Il pense surtout que l'éditeur va devoir adopter la bonne ligne de conduite avec une offre cloud qui propose un système d'exploitation, une base de données et plusieurs autres services. Potentiellement, il y a là matière à créer un conflit d'intérêt pour la société fondée par Bill Gates. En effet, celle-ci veut nouer des partenariats autour de l'utilisation de sa technologie de virtualisation Hyper-V et de son framework .Net pour le développement de services cloud. Mais, souligne Drue Reeves, la présence d'Azure sur le marché pourrait dissuader les fournisseurs de clouds d'utiliser les technologies de Microsoft.

« Si vous êtes un nouvel opérateur, allez-vous choisir Hyper-V ou .Net pour les offrir sous la forme d'un service en ligne qui entrera en concurrence avec Azure ? C'est peu probable », fait apparaître l'analyste du Burton Group. En fait, résume-t-il, l'éditeur de Redmond propose des technologies destinées aux fournisseurs de cloud et, dans le même temps, il se place face à eux pour les vendre aussi.

Azure est disponible depuis le 1er février de cette année.

(...)

< Les 10 documents précédentsLes 10 documents suivants >