Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 121 à 130.

< Les 10 documents précédentsLes 10 documents suivants >


(22/11/2011 16:38:41)

Les axes stratégiques de SFR Business Team : cloud, international et fibre

Récemment arrivé à la tête de l'activité entreprise de SFR, Pierre Barnabé, ancien responsable d'Alcatel-Lucent, a profité d'une rencontre avec les journalistes pour donner sa feuille de route stratégique. Concrètement, elle tourne autour de 3 axes, le premier est le cloud et les services « parmi les différents marchés que nous adressons, téléphonie fixe, mobile et hébergement, c'est vers ce troisième marché que nous souhaitons porter notre effort ». Il a rappelé que le marché du cloud est très compétitif avec beaucoup d'acteurs, mais il pense que « les opérateurs télécoms sont les mieux à même de proposer des offres cloud, stables, disponibles et sécurisées ». Comment vont se traduire les efforts dans ce domaine ? « Nous allons renforcer notre partenariat avec HP » explique Pierre Barnabé sans toutefois préciser les modalités de cette montée en puissance comme par exemple l'utilisation du cloud public du constructeur. Il évoque seulement des actions communes au niveau de la distribution entre les VARs informatiques et les revendeurs télécoms. Sur la distinction des offres, l'opérateur va proposer du cloud privatif, plus sécurisé, géolocalisé en France, redondant et un cloud privé, hautement sécurisé et disponible.

Est-ce que des recrutements et d'autres partenariats sont prévus dans cette orientation ? « Tout est ouvert concernant les associations, les partenariats ou les acquisitions, mais dans un premier temps, j'ai demandé à mes équipes de monter en compétence dans l'intégration et dans la sécurité pour répondre à cette montée en charge ». Le dirigeant réfléchit aussi à des offres verticalisées sur le cloud « vers certains secteurs, cela peut avoir du sens. Après il faut regarder les avantages et les inconvénients. A court terme, la verticalisation est une bonne chose, mais sur le long terme, il peut y avoir un phénomène de silos et d'éloignement des standards technologiques qui évoluent ». Autre surprise pour Pierre Barnabé, l'appétence des PME pour le cloud, « le changement a eu lieu en cours d'année, elles veulent en savoir plus sur le cloud qui devient un mot qui les rassure ».

International et Fibre


Parmi les autres axes de travaux de Pierre Barnabé, l'internationalisation de SFR Business Team vise à démontrer que le groupe est « multinational » et non plus un acteur perçu souvent comme trop hexagonal. Pour développer cette stratégie, l'activité entreprise de l'opérateur va s'appuyer sur son partenariat historique avec Vodafone ou via ses participations au sein de Maroc Telecom, mais aussi sur des partenariats avec des acteurs dans des régions comme l'Amérique du Sud, l'Asie, etc. Ces différents accords seront formalisés au sein d'une alliance (dont le nom reste encore à définir) pour respecter des niveaux de qualité de service, de certification, de couverture et répondre plus facilement à des appels d'offres internationaux.

Enfin, le dernier axe est la fibre optique avec notamment l'accord entre Orange et SFR sur le déploiement du très haut débit dans les zones peu denses. L'objectif de Pierre Barnabé est de « fibrer » une grande partie des zones d'activités. « La fibre est essentielle pour apporter de meilleurs débits pour nos clients, mais elle est bénéfique aussi pour notre gestion du réseau », précise le dirigeant en pensant notamment à la collecte du trafic data mobile qui explose d'année en année.

Au final, ce plan de bataille de SFR Business Team doit avoir pour but de faire fructifier les 2 milliards d'euros de revenus annuels et améliorer sa part de marché notamment sur les services et l'hébergement. « Nous avons été discrets ces quelques mois, nous repartons à l'offensive », conclut Pierre Barnabé.

(...)

(22/11/2011 16:52:01)

Huawei affiche ses ambitions pour le cloud

Au coeur de l'empire Huawei, sur le gigantesque campus de Shenzhen, le constructeur chinois a présenté à une brochette de journalistes français ses solutions télécoms et réseaux, ses terminaux mobiles, ses serveurs, ses systèmes de stockage et sa plate-forme de cloud computing. Si en Europe, le nom de Huawei ne fait pas spontanément penser à des serveurs ou à des baies de stockage, en Asie, le constructeur est déjà un fournisseur global d'infrastructures pour datacenter. Les salles informatiques de géants chinois comme Baidu (le Google national) ou Alibaba (le numéro de la vente en ligne en Chine) sont par exemple équipés avec des solutions serveur et stockage, nous a confié Leon He, vice-président en charge des ventes enterprises chez Huawei. Sans état d'âme, le dirigeant avoue volontiers être désormais en compétition avec HP, Dell, EMC ou Cisco, mais exclut encore IBM.

Un géant chinois à l'assaut du reste du monde

Crée en 1987, Huawei a réalisé l'an passé un chiffre d'affaires de 29 milliards de dollars US et a investi près de 2,5 milliards en R&D en 2010. Si les revenus de l'activité entreprise sont encore modestes, 2 milliards de dollars, le marché est porteur et aucun nouvel entrant majeur n'est venu le chahuter sur ce segment. Huawei se fait donc fort de réveiller le marché. Parmi les serveurs proposés par le constructeur chinois, deux modèles ont particulièrement retenu notre attention. Les modèles E6000 et X6000. Le premier peut accueillir 10 lames verticales équipées d'un ou deux processeurs Xeon 5500/5600 avec quatre ou huit coeurs épaulés par un maximum de 192 Go de RAM. Le second peut recevoir des demi-lames animées par un Xeon 3400 quatre coeurs avec 32 Go de RAM max (XH-310), un ou deux Xeon 5500/5600 avec 192 Go de RAM (XH-320) et, enfin, un ou deux Xeon 5500/5600, mais avec 288 Go de RAM (XH620). Le design modulaire du X6000 peut combiner 4 demi-lames dans un noeud occupant 2U dans l'armoire qui fait au total un maximum de 84 blades (voir illustration principale).

Impossible d'obtenir des prix pour ces serveurs. Catherine Hu, directrice de la branche IT chez Huawei, nous a simplement précisé que ces produits seront commercialisés en France à des tarifs très compétitifs. La responsable fonde notamment de grands espoirs sur le modèle X6000, baptisé Cloud Server. C'est la seconde brique dans la stratégie du chinois qui a construit une plate-forme cloud de type IaaS et une offre de stockage cloud reposant sur des stacks Open Source. « Nous sommes clairs, nous poussons une plate-forme ouverte », précise Leon He. « Sur le marché français, nous recherchons des partenaires et poursuivons nos études marketing pour bien affiner notre offre. Nous travaillons d'ailleurs avec les opérateurs télécoms pour évaluer le marché. Notre ambition est de les aider à réduire leurs coûts et à améliorer leurs revenus. » Un centre de compétences va également ouvrir en région parisienne pour accélérer le mouvement.

[[page]]

Huawei n'arrive pas les poches vides sur le marché du cloud. « 10 000 personnes dans la Silicon Valley à Santa Clara, en Europe et en Chine travaillent à l'intégration de notre offre cloud privé avec l'écosystème et les partenaires », indique Catherine Hu. 55 300 employés sur un total de 120 000, soit près de 44%, travaillent ainsi à la R&D du chinois. Ce cloud repose sur quatre fonctions clefs : virtualisation, automatisation, distribution et parallélisme. En Europe, Huawei travaille déjà avec Deutsche Telekom et sa filiale T-System sur le sujet. « L'année prochaine, un de nos clients européens pourra témoigner de son expérience », confie encore Catherine Hu. A la question de savoir pourquoi Huawei serait mieux placé qu'un autre pour démarrer un cloud privé, la responsable répond sans détour que « nous n'avons pas seulement du matériel ou du logiciel, nous apportons une plate-forme cloud complète ». Il s'agit ici encore d'une question de confiance et c'est ce qui est le plus long à construire.

« Par nos succès européens avec les opérateurs, nous pensons avoir les atouts pour percer sur le marché avec nos solutions cloud. Le cloud computing est une opportunité de revoir l'informatique dans les entreprises, voilà pourquoi nous poussons nos solutions aujourd'hui. » Mais le cloud chez Huawei passe également par une offre stockage baptisée CloudStor. Cette solution qui propose stockage et sauvegarde en ligne repose sur des produits maison. En sus des serveurs, Huawei propose en effet une ligne stockage complète avec SAN (les S3900 et S5900), NAS (N8000), bandes (VTL 3000 et 6000) et plate-forme de virtualisation (VIS-6000). Le chinois se mesure d'ores et déjà à IBM, EMC, HP, Hitachi ou NetApp comme le souligne la présentation ci-dessous. Un marché fort disputé où les rachats récents n'ont pas fini de redistribuer les cartes. Nous verrons bien dans les mois qui viennent si Huawei réussit à placer ses solutions.

(...)

(17/11/2011 17:11:18)

Oracle livre un Solaris 11 prêt pour le cloud

Oracle vient de mettre à jour son système d'exploitation Solaris. L'éditeur a notamment ajouté plusieurs fonctionnalités qui rendraient l'OS plus apte à faire du déploiement dans le cloud. Mais  son système Unix profiterait aussi d'une meilleure intégration avec les autres produits Oracle, comme l'a annoncé l'entreprise.

« Nous avons pris en compte certains besoins exprimés par nos clients et leurs difficultés à effectuer des déploiements dans des clouds privés ou publics, » a déclaré Charlie Boyle, directeur senior du marketing produit. «  Cette version permet de prendre en charge des tâches complexes en infrastructure cloud, et d'exécuter n'importe quelle application Solaris en environnement cloud. » Comme l'a fait remarquer Markus Flierl, vice-président du développement logiciel chez Oracle, « les déploiements dans le cloud exigent des niveaux d'automatisation et de rationalisation beaucoup plus avancés que ceux d'un environnement informatique standard. » Une entreprise peut utiliser des centaines de serveurs Solaris. Mais quand elle déplace ses applications vers une infrastructure cloud, elle peut les faire tourner sur des milliers d'instances virtuelles Solaris.

Des partitions baptisées Zones

Solaris est une implémentation d'Unix initialement développée par Sun Microsystems, une entreprise acquise par Oracle l'année dernière. Moins connue pour ses solutions logicielles pour le cloud, Oracle a axé sa promotion de Solaris en le présentant comme un système d'exploitation convivial pour le cloud. Dans l'architecture d'Oracle, les utilisateurs peuvent configurer différentes partitions, appelées Zones, dans une implémentation Solaris. Ce mode de fonctionnement devrait permettre de traiter différentes charges de travail simultanément, chacune dans leur propre environnement, sur une seule machine. Selon la documentation marketing d'Oracle, Solaris Zones demande 15 fois moins de ressources qu'une implémentation VMware. L'éditeur fait également valoir que ces Zones n'auraient pas de limitations artificielles en terme de ressources mémoire, réseau, CPU ou stockage.

Selon le VP du développement logiciel d'Oracle, « de nombreuses fonctionnalités ont été conçues pour faciliter l'administration d'infrastructures cloud. Parmi elles, une fonctionnalité, appelée Fast Reboot, va permettre de redémarrer le système en passant les habituels contrôles matériels. Selon Oracle, cette fonction pourrait réduire le temps de démarrage du système de deux fois et demi. Cela peut s'avérer très utile pour un administrateur, lors de l'application de patchs ou de mises à jour logicielles, pour redémarrer plus rapidement des milliers VM Solaris. « Cette fonction permet de mettre à niveau la totalité de l'environnement en toute sécurité, » a déclaré Markus Flierl. Solaris s'enrichit également d'un nouveau logiciel de gestion système, appelé Image Packaging System, qui garde la trace des dépendances, des bibliothèques et autres logiciels dont le programme a besoin pour fonctionner. L'Image Packaging System conserve tous ces groupes logiciels dans une image système à jour, y compris celles en environnement virtuel.

[[page]]

Parmi les autres fonctionnalités de Solaris pour le cloud computing, on trouve de nouveaux contrôles administrateur pour verrouiller les paramètres dans les Zones individuelles. Les modifications que les utilisateurs ont la possibilité d'effectuer au niveau du fichier système ou des paramètres réseaux, peuvent être limitées. De même, l'administrateur peut également fixer la quantité de bande passante disponible pour chaque Zone. Enfin, cette version de l'OS est aussi la première qui permet aux utilisateurs de virtualiser les ressources réseaux, ce qui signifie que, avec des cartes réseaux compatibles, il est possible de diriger le trafic vers d'autres machines virtuelles, sans solliciter le CPU du serveur lui-même.

En plus de ces ajouts pour rendre Solaris plus adapté au cloud computing, Oracle a également restructuré certains de ses produits afin qu'ils puissent mieux travailler avec son OS. En particulier Database 11g, Fusion Middleware 11g et le pack logiciel d'administration Enterprise Manager Ops Center. « La possibilité pour une entreprise de contrôler une pile logicielle complète lui permet de prendre des décisions holistiques , par exemple savoir quelle partie de la pile il vaut mieux ajuster pour obtenir des gains de performance, » a déclaré Markus Flierl.

Solaris 11 est conforme aux spécifications de l'Open Group pour les implémentations Unix, et supporte donc tout programme écrit pour des versions antérieures de Solaris, jusqu'à la version 6. Oracle répond aussi à son programme Oracle Solaris Binary Application Program, lequel certifie plus de 11 000 applications en mesure de tourner sur Solaris 6.

Solaris 11 tourne à la fois sur processeurs x86 et sur les puces Sparc d'Oracle.

(...)

(17/11/2011 14:19:09)

Aerohive simplifie et sécurise les connexions sans fil des succursales

Aerohive a présenté une offre à destination des petites structures, succursales ou télétravailleur, nommée « Branch on demand ». Elle comprend une paire de routeurs WiFi, avec en option la connectivité 3G/4G WAN, un service cloud de terminaison VPN s'exécutant sur VMware et la capacité d'intégrer des offres de sécurité du cloud proposées par Websense (filtrage anti-malware, inspection du trafic SSL) et Baracuda. Le résultat, selon les dirigeants d'entreprise, est une couche réseau  de niveau 3 complète avec DHCP en local et des services DNS, via le « proxy cloud » d'Areohive.

Aerohive propose ainsi deux routeurs pour les succursales. Le premier a être commercialisé sera le BR100, un routeur low cost fonctionnant en 2,4 GHz et compatible avec le standard 801.11n. Il comprend 5 ports Fast Ethernet et un port USB et intègre en option la connectivité 3G/4G. Les prix commencent à 99 $ par année par site et sera disponible à la mi-décembre. Le BR200 est un routeur haut de gamme comprenant un port USB pour une option 3G/4G WAN, mais il offre des antennes radio 3x3 MIMO (Multiple in-Multiple out) qui peuvent fonctionner soit en 2,4 GHz ou 5 GHz, 5 ports Gigabit Ethernet, dont deux sont en PoE. Le BR200 sera disponible au « début 2012 » pour un prix non encore annoncé.

Les deux routeurs fonctionneront sur la version 5.0 de HiveOS. Elle intègre notamment différentes fonctionnalités cloud comme les terminaisons VPN ou la gestion des des WLAN avec une version rénovée de HiveManager 5.0. Une fois l'installation faite, les administrateurs IT peuvent suivre l'identité des utilisateurs et le type d'appareil utilisé, les autorisations attribuées automatiquement, les paramètres réseaux au sein des succursales. Le tout est géré par HiveManager via une page web, contrôle et modification à distance des routeurs et des points d'accès.

Un gain de temps dans la prise en charge des VPN

Par ailleurs, l'offre « Branch on demand » comprend Cloud VPN Gateway (CVG) est une application logicielle pour la terminaison VPN. Elle est conçue pour fonctionner sur des serveurs virtuels sous VMware, de sorte qu'elle peut rapidement évoluer pour gérer de nombreux clients. Une fois les routeurs branchés, un tunnel est automatiquement établi vers le CVG.

« Une constante des difficultés avec les VPN quand on a de nombreux sites, en particulier des bureaux distants, est la nécessité d'allouer et de mapper des adresses IP et des sous-réseaux en  configurant des routes pour garder le trafic en local, tandis que le tunneling oriente les autres trafics vers le VPN » , explique Lisa Phifer, consultante en réseaux chez Core Competence . « De ce que j'ai vu dans la démo Aerohive, ils auto-génèrent les sous-réseaux et le routage à partir de simples curseurs comme, par exemple,« J'ai 10 utilisateurs au bureau X ». Cela pourrait être un gain de temps énorme si vous avez des centaines ou des milliers de bureaux à traiter », ajoute la consultante.

(...)

(16/11/2011 09:44:13)

Eurocloud se penche sur le financement du cloud via une commission ad hoc

Avec l'aide de deux associés du cabinet KPMG, Eurocloud a mis sur pied une commission finances dont la première réunion se tiendra en fin de mois. Elle va traiter de  sujets sensibles pour tous les éditeurs de taille moyenne. « Le succès de l'intervention de KPMG lors de nos derniers Etats Généraux montre que l'écosystème SaaS/cloud se pose des questions en matière de finances», souligne Henry-Michel Rozenblum, le délégué général d'Eurocloud.

La commission va sortir des Livre Blanc sur les finances du cloud et de ses acteurs. Des Livres Blancs rédigés par les membres de la commission. De nombreuses questions se posent déjà, par exemple : comment calculer un prix de vente de prestations en SaaS, les paramètres à prendre en compte dans sa facturation, la valorisation de l'entreprise, la trésorerie. Les experts de KPMG vont également apporter des précisions sur les prochaines normes européennes en préparation qui impacteront  le SaaS.

La commission devrait aborder aussi des thèmes plus généraux, nous précise Henry-Michel Rozenblum, comme l'influence du SaaS sur le SI, ou le management d'une entreprise qui délivre du SaaS.

(...)

(15/11/2011 15:41:06)

L'Espagne construit un supercalculateur avec des puces ARM 4 coeurs

Avec son prototype de supercalculateur construit autour de processeurs ARM quad-core, le Centro nacional de Supercomputación (CNS) espagnol, également connu sous le nom de Barcelona Supercomputing Center (BSC), veut apporter l'efficacité énergétique aux systèmes haute performance. Le serveur en question, conçu pour traiter des charges de travail complexes, intégrera des processeurs Nvidia Tegra 3 quad-core à1,4  GHz (nom de code Kal-El), des puces d'abord destinées aux smartphones et tablettes, et livrées par le fondeur au début novembre. Les 1 000 processeurs Tegra 3 seront jumelés avec de circuits  graphiques Nvidia (architecture CUDA), pour accélérer les calculs scientifiques et mathématiques.

Le système pourrait offrir à ARM une porte d'entrée dans le marché de l'informatique haute performance, actuellement dominé par des concurrents comme Intel, AMD, IBM et Oracle. Si aujourd'hui on trouve des processeurs ARM dans la plupart des smartphones et tablettes, ceux-ci sont pratiquement absents du marché du serveur. Cependant, l'intérêt d'utiliser des puces ARM dans des serveurs ne cesse de croître : « ces processeurs offres des performances élevées et permettent de surmonter les contraintes énergétiques, » comme l'a déclaré Steve Scott, Chief Technology Officer de la division Tesla chez Nvidia. « Nous sommes très intéressés par l'entrée de ARM dans l'écosystème HPC, » a ajouté le CTO.

Un prototype censé concourir dans le Green500 seulement

« Le prototype de supercalculateur Tegra 3 ne délivrera pas les performances pétaflopiques de certains ordinateurs, parmi les plus rapides au monde, » a expliqué Steve Scott. Mais celui-ci pourrait entre dans la liste Green500, qui établit le classement des supercalculateurs les plus éco-énergétiques du monde. Nvidia n'a pas communiqué de chiffres sur les performances de la machine, ni indiqué le nombre de processeurs graphiques présents dans le supercomputer Tegra 3. Mais, « l'association de milliers de coeurs ARM avec des GPU permettra d'effectuer des calculs scientifiques complexes, tout en réduisant la consommation d'énergie et les coûts, » a précisé le CTO de Nvidia. Le BSC dispose déjà d'un serveur prototype ARM équipé de 256 puces Tegra 2 double coeur.

Grâce au processeur ARM, Nvidia élargit ses compétences dans le domaine des supercalculateurs, essentiellement concentrées autour de ses processeurs graphiques Tesla, utilisés dans des supercalculateurs pour effectuer des calculs complexes. Le supercalculateur que construit le laboratoire national d'Oak Ridge va coupler un GPU Tesla avec des CPU 16-core Opteron d'AMD pour une performance de 20 pétaflops. Il sera plus rapide que le K japonais, qui délivre une performance de 8 pétaflops et détient actuellement le titre d'ordinateur le plus rapide au monde, selon le classement établi par le Top500 au mois de juin.

Les initiatives serveur se multiplient autour d'ARM

Nvidia a également rejoint un petit groupe d'entreprises qui s'intéressent aux processeurs ARM comme alternative aux processeurs x86 d'Intel et d'AMD. Début novembre, Hewlett-Packard a annoncé qu'elle travaillait à la construction d'un serveur autour d'une puce de Calxeda qui intègre un processeur ARM quatre coeurs consomme à peine 1,5 watts. Si les processeurs ARM ne font pas faire le poids en terme de performances brutes avec des serveurs x86, les analystes pensent que l'agrégation de milliers de processeurs ARM pourrait offrir de meilleures performances par watt pour des charges de travail légères et demandant beaucoup de fluidité, comme le traitement de transactions volumineuses sur Internet.

Le prototype sur base Tegra fait parti d'un plan de développement, en grande partie financé par la Commission européenne, qui vise à faire montrer que des systèmes, capables d'offrir les performances de l'Exascale, consomment 15 à 30 fois moins d'énergie que les serveurs actuels. Le prototype Tegra 3 du BNS doit encore obtenir une validation finale, bien qu'il ait déjà été utilisé pour le développement de logiciels. Les spécifications du nouveau système seront établies l'année prochaine. Ce projet, appelé Mont-Blanc, est coordonné par le Barcelona Supercomputing Center et dispose d'un budget de plus de 14 millions d'euros.

[[page]]

Mais, comme tout nouveau venu sur le marché des serveurs, ARM a de nombreux défis à relever. En particulier, la plupart des logiciels serveur existants sont conçus pour tourner sur des puces x86, et il faudrait donc réécrire l'ensemble de ces logiciels pour leur permettre de fonctionner sur processeurs ARM. Ces derniers manquent aussi de fonctions de corrections d'erreurs et offrent un adressage 32 bits, ce qui limite le plafond de la mémoire à 4 Go. Malgré ces difficultés, Nvidia devait bien commencer quelque part. L'entreprise a choisi d'affirmer sa position de leader en mettant en avant les processeurs ARM dans les serveurs et supercalculateurs. « Ça ne va pas arriver du jour au lendemain, » a déclaré Steve Scott. « Cela va demander un certain nombre d'années. »

En attendant, Nvidia met au point un autre processeur sur base d'ARM, nom de code Project Denver, destiné aux smartphones, tablettes, PC et supercalculateurs. « Il n'est pas impossible que Nvidia intègre des coeurs ARM dans les produits Tesla à long terme, » a indiqué le CTO. « Nous allons considérer cette option et l'intégrer au bon moment », a ajouté Steve Scott. Récemment, ARM a également annoncé une architecture 64-bit, qui comporte de nombreuses fonctionnalités spécifiques au serveur. Cela va permettre à ARM de franchir une étape clé et rendre sa présence effective sur le marché du HPC. « Pour bien faire les choses, il faut une architecture 64 bits dans ce domaine, » a déclaré Steve Scott.

(...)

(15/11/2011 14:51:58)

Salesforce.com acquiert Model Metrics, spécialiste de la mobilité dans le cloud

Salesforce.com a annoncé l'acquisition de Model Metrics. Les termes financiers de l'acquisition n'ont pas été divulgués, mais l'éditeur s'attend à conclure la transaction dans son quatrième trimestre fiscal clos le 31 janvier.

Model Metrics est une entreprise basée à Chicago et comprend plus de 500 clients. Elle a réalisé plus de 1000 déploiements des solutions de Salesforce.com pour les entreprises de toutes tailles. Elle a indiqué en début de mois que 80% de ses clients ont des projets d'intégration des smartphones et tablettes dans leurs déploiements cloud. Ces projets de mobilité ont été multipliés par 6 en 2011 souligne Model Metrics. En conséquence, elle a étoffé son expertise sur le mobile en proposant des offres multi-plateforme. Ainsi, elle a développé des applications pour iPhone, iPad et quelques terminaux Android pour donner un accès hors-ligne aux données de Salesforce.com

(...)

(15/11/2011 09:54:08)

CA World 2011 : CA Technologies propulse les applications dans le cloud

Une informatique en phase avec le rythme d'évolution de l'entreprise, « IT at the speed of business ». C'est le mot d'ordre de CA Technologies pour sa conférence CA World 2011 qui accueille 5 000 personnes à Las Vegas jusqu'au 15 novembre, clients et partenaires. « L'un des principaux problèmes pour un chef d'entreprise, c'est de voir ce qu'il veut faire et de ne pas pouvoir avancer assez vite, parfois à cause de l'informatique », a exprimé dimanche soir Bill McCracken, PDG de l'éditeur américain spécialisé dans les solutions de gestion du système d'information.

A sa suite, Vivek Kundra, premier DSI (CIO) de la Maison Blanche, de 2009 à 2011, a expliqué comment il avait taillé dans les dépenses informatiques du gouvernement américain en rationalisant les systèmes et en réduisant les duplications.
Vivek Kundra, ancien CIO de la Maison Blanche
Vivek Kundra, ancien CIO de la Maison Blanche, sur CA World 2011 (crédit : M.G.)

A ce poste, il a expliqué avoir plaidé pour une politique axée d'abord sur le cloud, soulignant qu'il fallait repenser la façon dont les services étaient apportés au citoyen. Il a déploré les sommes investies dans des applications inopérantes, soulignant que les utilisateurs des services publics se souciaient moins du nombre de datacenters mis en oeuvre que du temps passé à faire la queue.

3 milliards de dollars

Ces deux dernières années, CA a déboursé 3 milliards de dollars pour acquérir diverses technologies (celles d'Oblicore de 3Tera, Nimsoft, 4Base, Hyperformix, ITKO, WatchMouse...) et développer les outils adaptés à un paysage IT où, désormais, l'existant doit cohabiter avec les clouds publics, privés ou hybrides. « Les nouvelles options accroissent la complexité et requièrent un autre modèle de gestion IT capable d'apporter des services à la demande », a poursuivi lundi matin David Dobson, vice-président exécutif de CA, numéro deux du groupe. CA décline sa stratégie en actions : modéliser les services IT, les assembler, les automatiser, en garantir la disponibilité et les sécuriser. Le tout en restant agnostique vis-à-vis des plateformes.

Daivd Dobson, CA Technologies
David Dobson, vice-président exécutif de CA Technologies (crédit : M.G.)

En regard de ces besoins, l'éditeur propose notamment CA AppLogic, une solution issue du rachat de 3Tera, pour déployer et gérer des applications dans le cloud. En amont, pour déterminer quelles applications peuvent migrer vers quel type de cloud, il avance maintenant CA Cloud 360, l'une des nouveautés de ce CA World. Pour améliorer la performance des services, que ceux-ci soient dans le cloud ou dans les environnements traditionnels, il apporte CA Business Service Insight (ex CA Oblicore Guarantee). Enfin, a rappelé David Dobson, CA Clarity PPM (Project Portfolio Management) fournit le cadre et les outils pour gérer le portefeuille de projets IT.

Trois mois pour porter un service dans le cloud

Dans le domaine du cloud, cette édition 2011 de CA World n'a pas été chiche en annonces. En premier lieu, CA Cloud 360 Intelligence Methodology fournit une approche normative pour aider les DSI à valider quelles applications peuvent être installées dans un cloud privé, conservées dans un environnement classique, ou encore celles qui sont adaptées à un cloud public ou éligibles à un environnement de cloud hybride. Un processus en quatre étapes qui associe plusieurs produits CA à l'intervention de consultants experts de la virtualisation et du cloud, pour la plupart issus des rangs de 4Base Technologies, acquis en 2010.

[[page]]

Face au modèle hybride et à la pression subie pour accélérer la mise à disposition des applications et services, la DSI se trouve confrontée à des choix difficiles, a exposé Andi Mann, vice-président, responsable des solutions Enterprise et Cloud chez CA Technologies. « Quel serait le coût d'une erreur ? », figure parmi les questions sensibles. La démarche CA Cloud 360 commence par la découverte et l'analyse du portefeuille d'applications, au cours d'un atelier d'une journée, suivi par une analyse approfondie conduite par CA. Les niveaux de service des applications sont ensuite définis, avant d'évaluer les ressources physiques et virtuelles nécessaires, puis de simuler le comportement de l'application cloud ou hybride en environnement de production. A chaque étape, CA recourt à l'une de ses offres : Cloud Services, Clarity PPM On Demand, Oblicore Guarantee On Demand, la suite Capacity Management and Reporting, Virtual Placement Manager et, pour la simulation, la suite CA Lisa, développée par ITKO (société rachetée en juin 2011). Cloud 360 permettrait, selon CA, de créer certains services cloud en trois mois.

Une place de marché sur Cloud Commons

Les annonces de CA World 2011 concernent par ailleurs l'écosystème Cloud Commons. Cette communauté de 3 000 membres, créée pour favoriser partage et collaboration, accueille tant les entreprises que les fournisseurs de services, les développeurs et les éditeurs de logiciels (ISV). Elle s'enrichit désormais d'une « place de marché » où il est possible d'acheter, de vendre ou de comparer des solutions cloud. « Nous y avons déjà plus de 25 services cloud et appliances disponibles, a indiqué Andi Mann, en assurant que le nombre de références allaient s'étendre rapidement. On peut aussi y acheter des produits CA tels que ARCserve, Service Desk Manager ou Oblicore Guarantee, configurés sous la forme d'appliances destinées à être exploitées dans des clouds mis en oeuvre avec AppLogic.

Pour les développeurs et les éditeurs indépendants, membres de la communauté, qui veulent collaborer autour de projets de logiciels pour le cloud, CA annonce aussi le Studio Cloud Commons Developer. Il permet de concevoir des solutions prêtes à tourner, sans coût, en cloud privé ou public en s'appuyant sur la plateforme AppLogic.

Déjà annoncé en juin dernier, CA Automation Suite for Clouds permet de faire évoluer les datacenters existants en déployant des services en cloud privé. La suite fournit des workflows pré-conçus pour mettre à disposition des infrastructures physiques et virtuelles, ainsi que des services applicatifs. Un système de tarification s'appuie sur un moteur de facturation et de reporting financier qui associe l'utilisation des services à des centres de coût, ou bien à des clients ou des utilisateurs.

CA Automation Suite for Clouds
CA Automation Suite for Clouds

Gestion des accès et des identités

Enfin, CA Technologies a ajouté deux services à ses solutions IAM as-a-service, destinées à gérer les identités et les accès dans le cloud. CA IdendityMinder as-a-service permet aux utilisateurs de gérer eux-mêmes certains éléments : ils peuvent réinitialiser les mots de passe, demander d'accéder à certaines ressources et gérer leur profil. Le logiciel peut donner autoriser les utilisateurs à accéder à des services disponible dans le cloud et sur site. L'autre produit, CA FedMinder as-a-service, permet de mettre en place un accès unique (SSO) entre des domaines sécurisés, à la fois dans le cloud et sur site. Il supporte SAML 1.1 et 2.0 et facilite la fédération avec des sites web partenaires. L'administrateur peut par ailleurs déterminer quelles sont les informations qu'il peut partager avec les partenaires et sous quelles conditions. La suite IAM comprend déjà deux autres logiciels que CA vient de renommer : CA AuthMinder as-a-service (anciennement CA Arcot A-OK for WebFort) et CA RiskMinder as-a-service (ex CA Arcot A-OK for RiskFort).

(...)

(14/11/2011 15:42:45)

Les AMD Opteron 6200 16 coeurs enfin livrés

Après plus d'un an de confidences,  AMD a annoncé la disponibilité de sa puce Opteron 6200 avec 16 coeurs, qui fait de lui le processeur x86 le mieux doté en coeurs. Les Opteron 6200, également connus sous le nom de code Interlagos, sont de 25 à 30 % plus rapides que leurs prédécesseurs 12 coeurs, les Opteron 6100, a déclaré John Fruehe, directeur du marketing produit chez AMD.

Ces puces sont attendues dans les prochaines semaines au sein des serveurs de Hewlett-Packard, de Dell, de Cray et d'Acer a précisé M.Fruehe. Elles inaugurent une nouvelle architecture baptisée Bulldozer, qui apporte des améliorations au niveau de la bande passante et des performances tout en réduisant la consommation d'énergie.

Les expéditions de puces ont été retardées de quelques semaines, a indiqué Dean McCarron, analyste chez Mercury Research. Ce retard arrive alors qu'AMD tente de renverser sa mauvaise fortune sur le marché des serveurs. Le fondeur de Sunnyvale a en effet perdu du terrain l'année dernière au profit d'Intel. Les parts de marché serveur d'AMD au niveau mondial étaient seulement de 5,5% pour le deuxième trimestre de cette année, tandis qu'Intel en accaparait 94,5%, selon IDC. AMD a également été obligé de traiter les plaintes de clients qui estimaient que l'entreprise ne respectait pas sa roadmap produits.

Des processeurs avec des vitesses allant de 1,6 à 2,6 GHz

Les cinq puces 6200 - les 6262 HE, 6272, 6274, 6276 et 6282 SE - sont cadencées à des vitesses d'horloge comprises entre 1,6 et 2,6 GHz, et sont vendues de 523 à  1019 $. Ces composants consomment de 85 à 140 watts et peuvent remplacer les anciennes puces 12 coeurs dans les serveurs puisqu'elles utilisent les mêmes sockets (C34 et G31).

« Le 6200 est destiné aux applications vraiment évolutives, des charges de travail qui ont beaucoup de threads tels que les bases de données, le cloud ​​et l'informatique haute performance », a déclaré M.Fruehe. Ces processeurs ont été conçus pour les des environnements serveurs très virtualisés ajoute-t-il encore. Les systèmes d'exploitation Linux et Microsoft Windows Server 2008 vont pouvoir profiter de ces 16 coeurs, et plusieurs instances de machines virtuelles peuvent être créées pour traiter les transactions, précise-t-il.

L'architecture Bulldozer présente comme particularité de mixer au sein du processeur des unités de calcul entier et une unité flottante de sorte que plusieurs opérations peuvent être exécutées par cycle d'horloge tout en réduisant la consommation électrique. Parmi les autres améliorations de ces puces, citons la technologie Turbo Core, qui, comme chez Intel, peut augmenter la vitesse d'horloge jusqu'à 500 MHz dans tous les coeurs et jusqu'à 1 GHz sur certains noyaux en fonction des performances requises. Les liens HyperTransport 3.0 sont toujours au nombre de 4 et le contrôleur mémoire sur quatre canaux.

Opteron 4200, un demi Opteron 6200

AMD a également annoncé la disponibilité de l'Opteron 4200, qui pourra être livrée avec 6 ou 8 coeurs. Ces puces fonctionnent à des vitesses d'horloge comprises entre 1,6 et 3,0 GHz, et sont vendues entre 125 et 377 $. Les processeurs 4200 ont été conçus pour les environnements serveurs denses nécessitant des puces basse consommation, a précisé le responsable d'AMD. Ces composants consomment de 35 à 95 watts, soit environ 4,3 watts par noyau, selon le fondeur.

Il y a un intérêt croissant pour les processeurs basse consommation sur le marché des serveurs et certains constructeurs comme HP récemment commencent à regarder ailleurs, du coté d'ARM par exemple, pour aider les entreprises à diminuer leur facture électrique. Mais toujours selon M.Fruehe, les processeurs Opteron 4200 possèdent encore une longueur d'avance sur les puces ARM, qui font l'impasse sur des fonctionnalités indispensable aux serveurs, comme l'adressage mémoire et les instructions 64-bit. « Quand vous regardez certaines des choses d'ARM, c'est une bonne technologie, mais quand vous regardez le marché des serveurs et les besoins ... ils ne vont vraiment adresser qu'une petite partie du marché, tout en bas, là où certaines de ces choses n'ont pas d'importance », a déclaré M.Fruehe. « Les processeurs pour serveurs haut de gamme seront toujours nécessaires pour les machines back-end exécutant intensivement des applications manipulant beaucoup de données ou réalisant des calculs d'images dans le cloud (...) Il n'y a aucun moyen qu'un processeur ARM à 1,4 GHz soit capable d'offrir le même niveau de performances qu'une puce x86 ». Un seul coeur peut être pas, mais quand on sait qu'ARM travaille sur une architecture multi coeurs avec instructions 64 bits (ARMv8), le retard pourrait être vite comblé.

[[page]]

Ces derniers mois, AMD a une fois de plus restructuré ses activités et la priorité du nouveau PDG, Rory Read (ex-Lenovo), est de stimuler l'activité à forte marge commerciale. Le dirigeant a d'ailleurs reconnu que les clients s'étaient plaints de l'incapacité d'AMD à fournir ses produits à temps, et qu'une de ses priorités était de régler les problèmes de fabrication et d'expédition des puces. L'Opteron 6200 est un processeur très important dans la stratégie serveur d'AMD car c'est un produit clef pour s'ancrer dans les datacenters, selon M.McCarron de Mercury Research. «Cela fait partie de leur programme de réimplantation. Ils ont connu une lente érosion ces dernières années ». Dell est le premier à annoncer que son serveur PowerEdge R815 (voir ci-dessous) pourra accueillir cette puce et passer ainsi de 48 à 64 coeurs max. La seul option supplémentaire pour ce serveur sera l'option mémoire à 1600 MHz.

AMD a connu quelques victoires importantes avec cette puce, a poursuivi l'analyste. L'une d'elles se situe au laboratoire national d'Oak Ridge du Département américain de l'Énergie, où un superordinateur appelé Titan est construit avec des processeur AMD 16 coeurs et les puces graphiques NVIDIA pour offrir un maximum de 20 Pétaflops en pointe. Ce supercalculateur dépassera le K japonais, qui, avec 8 Pétaflops, était jusqu'à présent l'ordinateur le plus rapide du monde dans la liste Top500.org publiée en juin dernier.

Le lancement de cet Opteron arrive enfin juste avant les processeurs Intel Xeon E5, qui sont déjà en fabrication et devraient arriver sur les serveurs dans la première moitié de l'année 2012. Intel a déjà 400 certifications environ pour son Xeon E5, a déclaré Kirk Skaugen, vice-président et directeur général de l'activité Intel Data Center Group, lors d'une conférence la semaine dernière.



(...)

(10/11/2011 17:12:02)

Recap IT : Les Anonymous et Duqu super stars, Google + s'ouvre aux entreprises, Adobe tue Flash pour mobile

Encore une semaine amputée d'un jour, mais l'actualité IT est toujours aussi dense. Sur le plan de la sécurité, les projecteurs se sont tournés vers le collectif de hackers Anonymous. A chaque piratage de grande envergure, sites gouvernementaux, grandes entreprises ou sectes, ils sont pointés du doigt. Là en l'occurrence, ils sont fortement soupçonnés d'avoir bloqué des sites militaires israéliens, mais également d'avoir fait plier un cartel de drogue mexicain. Autre star de la semaine, Duqu qui n'en finit pas de faire parler de lui. D'un côté, Microsoft annonce un correctif partiel sur ce trojan. De l'autre, F-Secure détaille les risques liés à Duqu, alors que NSS Labs se targue d'avoir créé un outil Open Source pour détecter le malware qui est contesté par plusieurs éditeurs de solutions de sécurité.

Toujours sur la sécurité, la CIA s'intéresse aux tweets en analysant quotidiennement 5 millions de messages pour trouver des éléments criminels ou terroristes. La société Palo Alto a présenté Wildfire, un outil capable de détecter et bloquer le trafic suspect.

SAP, Fujitsu tiennent forum et Google + s'ouvre aux entreprises


Si Gartner annonce une deuxième récession dans les dépenses IT, plusieurs acteurs de l'IT ont montré lors de différents évènements qu'ils étaient dynamiques sur le plan des produits et des services. Ainsi, Fujitsu Forum se positionne clairement dans le cloud comme un acteur de bout en bout, du hardware jusqu'au logiciel en proposant en propre une solution de CRM Open Source en mode SaaS. De son côté, SAP lors de son évènement à Madrid Sapphire cible l'analyse des données à travers sa solution in memory HANA, mais reste aussi vigilant et innovant sur son coeur de métier.  EMC tenait aussi son Forum à Paris avec un focus bien évidement sur le big data, mais aussi sur sa volonté d'étoffer son écosystème de partenaires.

Dans un autre registre, Google a annoncé l'ouverture de son réseau social, Google +, aux entreprises. Cela été très attendu et certains comme la Caisse d'Epargne ont rapidement annoncé leur présence. Le PDG de Facebook, Mark Zuckerberg, a dénigré son concurrent en indiquant qu'avec Google +, la firme de Moutain View s'était créé un petit Facebook.

Adobe liquide Flash sur mobile et Juniper plante le web

Il aura fallu 6 minutes de panne à cause d'une mise à jour sur des routeurs edge de Juniper pour que le web américain et européen soit ralentit pendant plusieurs heures. Pour Adobe, la décision a été prise de cesser le développement de Flash Player sur les mobiles pour se focaliser sur le HTML5. Ce recentrage entraîne la suppression de 750 emplois. Steve Jobs peut sourire d'outre-tombe, lui qui avait refusé l'intégration de Flash sur les terminaux mobiles Apple. La firme de Cupertino ferraille toujours avec Samsung sur les brevets, même si la Commission européenne pourrait pousser les deux protagonistes à un compromis.

(...)

< Les 10 documents précédentsLes 10 documents suivants >