Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 311 à 320.
| < Les 10 documents précédents | Les 10 documents suivants > |
(23/05/2011 14:13:05)
TechEd 2011 : Microsoft étoffe sa suite Azure AppFabric
« La version CTP (Community Technology Preview) de Azure AppFabric à paraître en juin, offrira un ensemble de fonctionnalités pour construire et gérer des applications multi-tiers à partir d'une console unique, » a déclaré Seetharaman Harikrishnan, directeur général Application Server Group, chez Microsoft, au cours d'une présentation consacrée à ces technologies pendant la conférence TechEd à Atlanta (du 16 au 19 mai).
La plateforme middleware nouvelle génération de Microsoft doit permettre aux entreprises de gérer un ensemble d'applications qui peuvent être exécutées soit en interne, soit en externe dans une implémentation du service cloud Azure de Microsoft. Selon Seetharaman Harikrishnan, AppFabric permettra de simplifier la gestion des applications multi niveaux. « En particulier, les administrateurs ont eu du mal à gérer le niveau intermédiaire d'applications 3- tiers classiques, » a t-il déclaré. « De nombreuses entreprises ont standardisé le front-end de leur applications, le plus souvent en faisant appel à une interface de type navigateur basé sur un serveur Web, » a t-il expliqué. « Et ils ont normalisé les bases de données dans le back-end. Mais le niveau intermédiaire est resté un casse-tête en matière de gestion, » a-t-il ajouté.
C'est dans cette couche middleware, comme la nomme Microsoft, qu'est traité l'échange d'informations entre différentes applications, et où sont effectués, par exemple l'authentification des utilisateurs, le workflow et les services de messagerie. « Ce niveau intermédiaire n'a pas suscité beaucoup d'intérêt et laisse un peu à désirer, » a déclaré le directeur général. « C'est le problème des silos. » Chaque composant logiciel a un potentiel particulier, et est affecté à une fonction unique selon une structure qui résulte d'une architecture informatique dite en silos centrée autour de lignes de métiers, qui limite le partage des ressources.
Simplifier le middleware
« Azure AppFabric pourrait radicalement simplifier cette couche intermédiaire, » a t-il affirmé, notamment en offrant un ensemble de services préconfigurés pour fonctionner ensemble, ce qui permettrait aux développeurs de composer des applications en fonction du service. AppFabric Azure, qui fait partie de la plateforme Windows Azure, comporte déjà un certain nombre de produits différents, y compris un service de contrôle d'accès, un mécanisme de mise en cache et un service d'intégration qui s'appuie sur plusieurs fonctionnalités de BizTalk Server. Le nouvel ensemble permet de simplifier la procédure pour assembler ces autres services pour former des applications. « Cela devrait être facile pour vous de découvrir ces fonctionnalités et de les utiliser tout simplement, » a déclaré Seetharaman Harikrishnan.
AppFabric Developer Tools et AppFabric Application Manager font parti des nouveaux composants. Les outils de développement se présentent sous la forme d'un add-on pour Visual Studio. Celui-ci permet aux développeurs de composer des applications en rassemblant différents services sur une même palette. AppFabric Application Manager joue le rôle de runtime qui peut contrôler le fonctionnement et les performances de chaque application, ainsi que les services de base qu'elle utilise. Pour fonctionner, cette configuration nécessite aussi un nouvel ensemble d'extensions .NET Framework. Appelé Modèle de composition, il fournit les éléments pour décrire et assembler les composants dans une application.
Pendant le TechEd, Microsoft a également annoncé la sortie d'une nouvelle preview du Service Bus d'AppFabric. Cette version permettra la connectivité via REST (Representational State Transfer) ou HTTP API (interfaces de programmation d'application). Ainsi, Java et les applications basées sur PHP pourraient communiquer avec les applications AppFabric via ces API. Microsoft prévoit normalement de livrer AppFabric en 2012. Ces dernières années, l'éditeur a déjà livré plusieurs CTP aux professionnels des départements informatiques pour leur permettre de se familiariser avec cette technologie.
TechEd 2011: System Center et cloud unifiés chez Microsoft
Cette année au TechEd 2011, les dirigeants de l'entreprise de Redmont ont donné davantage de détails sur la place que pouvait réellement occuper le cloud computing au quotidien dans l'environnement informatique. Utiliser le cloud, cela signifie « avoir plus de personnes capables de se concentrer sur le haut de la pile, gérer les applications et notamment l'Engagement de Service ou Service Level Agreement (SLA), déployer de nouvelles applications, et ne pas avoir à se soucier de l'infrastructure sous-jacente, » a déclaré Robert Wahbe, Corporate Vice-Président de Microsoft, lors de son discours d'ouverture. « La prochaine version de Microsoft System Center sera la clé d'une stratégie cloud unifiée, laquelle permettra aux entreprises et aux administrateurs de contrôler leur charge de travail dans les clouds publics et privés à partir d'un tableau de bord unique, » a-t-il ajouté.
Une console unifiée pour les charges de travail interne ou dans le cloud
Attendu d'ici la fin de l'année, Microsoft System Center 2012 comprendra une console unique qui permettra de gérer les charges de travail virtualisées, qu'elles soient réalisées en interne ou dans un cloud public. C'est Joey Snow, l'évangéliste de Microsoft pour les questions techniques, qui a fait la démonstration de la console. L'utilisateur rassemble les composants habituels, une base de données serveur et l'application, dans le System Center. Le logiciel vérifie les ressources disponibles et les autorisations de la personne pour savoir si elle est bien habilitée à créer la charge de travail demandée. Passée cette étape, l'application peut ensuite être déployée vers un cloud privé local, ou vers un service cloud public basé sur Microsoft Azure. La console peut également vérifier les versions des applications exécutées dans le nuage, et permettre aux utilisateurs d'ajouter d'autres copies d'une application si la charge de travail venait à augmenter.
Hyper-V indispensable
Pour que cette mise en place fonctionne, tous les composants logiciels doivent être exécutés à partir d'une machine virtuelle basée sur Hyper-V. « Celle-ci peut être facilement déplacée entre clouds internes et externes, » a expliqué Robert Wahbe. « L'an dernier, c'était la première fois que l'industrie créait plus de serveurs virtuels qu'elle n'achetait de serveurs physiques, » a-t-il ajouté. « Cette évolution vers la virtualisation est le signe que nous devons infléchir beaucoup plus vers le cloud computing,» a insisté le dirigeant. La virtualisation va permettre aux entreprises de s'approprier « toutes les ressources virtualisées, de les associer de façon à provisionner les applications selon ses besoins, et de ne payer que ce qui est utilisé, » a-t-il déclaré.
De nombreuses sessions de la conférence 2011 devaient permettre aux participants de mieux comprendre comment configurer les logiciels de Microsoft pour profiter de l'interaction entre différents clouds. Robert Wahbe a également annoncé que l'éditeur américain fournirait des architectures de référence pour faciliter la mise en place d'une infrastructure cloud. Celui-ci a aussi prédit que le recours au cloud public serait majoritaire. « Les entreprises peuvent utiliser le cloud pour élargir l'accès à des applications existantes, en particulier celles utilisées par leurs clients et partenaires. » Selon lui, la Business Intelligence (BI) devrait prédominer au début, parce que l'analyse de données peut être intensive et varier au fil du temps. « Des usages plus ponctuels pour répondre à des besoins marketing ou la présentation d'événements sont d'autres opportunités naturelles pour le cloud computing, lequel permet d'allouer du matériel et des logiciels à une tâche pendant un temps donné, » a-t-il encore fait valoir.
Mise à jour Windows Phone 7
Dans son intervention, Robert Wahbe a également laissé entendre que les participants pourraient découvrir d'autres nouveautés dans les produits Microsoft au cours de la conférence. Un des sujets concerne notamment la prochaine mise à jour du système d'exploitation mobile Windows Phone 7, nom de code Mango. Attendue pour la fin de l'année, celle-ci doit permettre l'intégration avec Server Lync, l'offre de communications unifiées de Microsoft. Les utilisateurs de Mango pourront appeler leurs contacts Lync directement depuis le téléphone lui-même. Le service permettra également d'envoyer des messages instantanés aux membres de leurs listes de contacts. Un support pour accéder aux référentiels de SharePoint sera également inclus.
Sur le front de la VDI (Virtual Desktop Infrastructure), le dirigeant de Microsoft a annoncé que la banque HSBC était en train de déployer 100 000 postes de travail virtualisé à travers ses filiales, ce qui en fait « l'un des plus importants déploiements de VDI » existants, a-t-il commenté. System Center 2012 sera également capable de gérer un grand nombre de dispositifs non-Microsoft, comme l'iPhone, l'iPad et les dispositifs sous Android. « La console de System Center permettra de gérer la chaîne de bout en bout, » a-t-il ajouté.
Kinect pour un usage professionnel
Robert Wahbe a également profité de l'occasion pour montrer comment le contrôleur de mouvement de la Kinect pouvait être utilisé autrement que pour les jeux. Le centre médical Sunnybrook Health Sciences Centre l'utilise par exemple pour permettre à ses chirurgiens de manipuler les images des scanners en salle d'opération sans avoir à les toucher, ce qui leur évite de se désinfecter les mains à chaque fois. La technologie est également utilisée comme interface pour le projet Microsoft Worldwide Telescope où les utilisateurs peuvent naviguer rapidement dans une galerie d'images immersives de l'univers. Pour l'instant, le vice-président de Microsoft n'a pas précisé quels étaient les projets pour supporter des applications non-ludiques de la Kinect. Celui-ci a simplement indiqué que ces utilisations figuraient de « futures interactions possibles » avec d'autres appareils. « Kinect pourrait changer notre façon de travailler, » a-t-il déclaré.
Illustration principale : Robert Wahbe, vice-président de Microsoft
Gestion des talents : SuccessFactors mise sur une forte croissance en Europe
Moins connu que Salesforce.com et dix fois moins lourd, SuccessFactors compte pourtant davantage d'utilisateurs que le spécialiste du CRM en ligne. Il est vrai que sa propre solution de gestion des ressources humaines en mode SaaS (software as a service) concerne potentiellement tous les utilisateurs d'une entreprise(*). Et si son fondateur et actuel PDG, Lars Dalgaard, n'est pas encore aussi connu que Marc Benioff, le PDG de Salesforce.com, ce n'est pas faute de manquer d'enthousiasme et d'énergie. Ce dirigeant de 43 ans a fondé SuccessFactors il y a tout juste dix ans, sur une idée qu'il avait mise en oeuvre dans ses précédentes fonctions (il fut dirigeant de filiales chez Unilever et Novartis) : mettre les collaborateurs à l'unisson des objectifs à réaliser afin d'exécuter efficacement la stratégie de l'entreprise.
Début 2011, sa société comptait 3 200 clients dans 168 pays et l'éditeur réunissait cette semaine ses utilisateurs européens à Amsterdam (350 participants, du 19-20 mai). Pour constituer ce que propose aujourd'hui la suite BizX se sont ajoutées au fil des développements et des acquisitions, la gestion des talents, des rémunérations et des successions, les fonctions de RH en self-service, l'analyse et la planification des ressources (avec l'apport d'Inform puis YouCalc), le suivi des actions de formation (avec l'acquisition de Jambok et de Plateau) et des fonctions de collaboration de type social (avec CubeTree, notamment).
Cette suite intégrée (l'offre de Plateau est en passe de l'être) est mise en oeuvre dans une architecture multitenant, accessible en ligne sur abonnement. Elle vient concurrencer les solutions SIRH traditionnelles (fournies par Oracle/PeopleSoft ou SAP, notamment), mais rencontre aussi, sur son terrain, des solutions SaaS comme celles de Taleo ou CornerStone OnDemand, notamment. En dix ans, la suite BizX a été mise à jour une centaine de fois, soulignait hier Lars Dalgaard, à Amsterdam.
Société Générale déploie au niveau mondial
Le dirigeant de SuccessFactors se démarque un peu de l'image courante du fournisseur de logiciels. Il insiste sur l'investissement que sa société a réalisé sur le support aux utilisateurs et rappelle que sa suite a été conçue pour une adoption aisée : « It's built for adoption, not for transaction ». Mais il prône aussi le droit à l'erreur et les relations basées sur la confiance, jusqu'à placer un coeur dans le logo de sa société. Avec un curieux slogan : « It's time to love work again ». En écho à ses déclarations, à Amsterdam, il a fait largement intervenir ses clients (Irish Life & Permanent, Hilti, Allianz, Premier Farnell, Vallourec, Colt, PON...) avec un focus sur le projet de Société Générale, engagée dans une vaste reconquête d'attractivité des talents.
Didier Di Marco, directeur du système d'information des ressources humaines de la banque française, a souligné le défi que représente la mise en place d'un système RH globalisé à l'échelle mondiale nécessitant la mise en place d'une nouvelle organisation. Alors que chaque filiale disposait de systèmes disparates, des processus standardisés ont été mutualisés pour la gestion des performances RH, hormis la paie. Cette année, l'application, déployée en 25 langues, couvrira 50 pays.
Un datacenter aux Pays-Bas
Parmi ses grands clients européens, SuccessFactors compte aussi Siemens et Nestlé et, outre-Atlantique, des poids lourds comme Coca Cola. L'Europe est l'un des principaux objectifs de croissance pour l'éditeur basé à San Mateo. « Il devrait constituer notre marché le plus important dans les dix prochaines années », prévoit son PDG d'origine danoise. Cette année, l'objectif est de doubler le chiffre d'affaires. De ce côté-ci de l'Atlantique, la suite BizX est hébergée sur un datacenter installé aux Pays-Bas. Au poste de vice-président Europe du Sud de la société, on retrouve Pierre Soria qui dirigea pendant plusieurs années la filiale française de Salesforce.com. Cotée au Nasdaq depuis 2007, SuccessFactors a planifié une introduction à Euronext pour les prochaines semaines (elle devrait se faire incessamment).
Valorisée à 2,6 milliards de dollars
A Amsterdam, Lars Dalgaard a par ailleurs présenté à ses clients une partie de son conseil d'administration, dont son président, Doug Burgum. Cet ancien vice-président de la division Applications de Microsoft, qui dirigea l'éditeur d'ERP Great Plains, pilota en son temps l'acquisition du Suédois Navision par la société de Bill Gates. Au board de SuccessFactors figure aussi John Schwarz, ancien CEO de SAP Business Objects. A l'instar de nombreux acteurs du modèle SaaS, la société de Lars Dalgaard est valorisée plus de dix fois le montant de son chiffre d'affaires annuel. Sa capitalisation boursière atteint en ce moment 2,67 milliards de dollars (à titre de comparaison, celle de Salesforce.com s'élève à 19,19 Md$).
(*) Avec l'éditeur Plateau, qu'il vient de racheter, SuccessFactors totalise environ 15 millions d'utilisateurs (8 millions avec l'acquisition). Centré sur les applications de gestion de la relation client, Salesforce.com compte entre 3 et 4 millions d'utilisateurs et 97 700 clients.
SuccessFactors a réalisé en 2010 un chiffre d'affaires de 205,9 millions de dollars (+35%) quand Salesforce.com bouclait son exercice fiscal, fin janvier 2011, sur un chiffre d'affaires de 1,657 Md$ (+27%). (...)
Pour vendre du cloud privé, Acropolis Telecom recrute des partenaires en indirect
« On va de plus en plus vers un mode locatif, » nous explique Samir Koleilat, le PDG de l'opérateur Acropolis Télécom, « que ce soit les PME ou bien les distributeurs qui vont se tourner vers nous ». La distribution en indirect, version Acropolis Télécom est donc lié avant tout à ses offres de cloud computing.
Trois personnes sont recrutées pour le lancement et l'accompagnement de ce réseau de distribution en indirect. L'opérateur leur proposera différentes offres : de l'hébergement sur ses trois datacenters, les formules Saas Links de Microsoft, de la téléphonie d'entreprise avec Mitel, Siemens ou Panasonic, de l'accès avec Orange. Un catalogue suffisamment large pour intéresser les clients PME et structurer un réseau de partenaires en indirect.
Fait notable, Acropolis nous plusieurs types de partenariat. Sur les offres, avec des éditeurs ou des constructeurs. Sur l'aspect connexion avec des opérateurs, Orange au plan national, et les quatre principaux opérateurs de DSP en local : Altitude Infrastructure, Axione, Covage, Eiffage. Ce qui lui permet, ainsi qu'à ses partenaire revendeurs, d'accéder aux zones d'entreprises plus directement.
Bientôt trois datacenters en propre
Autre accord, cette fois avec des opérateurs comme lui, disposant de datacenters où Acropolis n'en a pas. Acropolis compte deux datacenter, un au centre de Paris, un place de la Nation, un troisième sera ouvert en juillet à Aix-en-Provence (400 KVA au départ, 1 MVA à terme). Acropolis prépare en plus des accords avec certains de ses homologues pour échanger des capacités. Il s'agit de Néo Télécoms, Euclyde, OptionServices.
Pour présenter ce modèle en indirect et les différentes offres, Acropolis recrute soit des revendeurs-installateurs en marque blanche, soit des apporteurs d'affaires. Seule différence, les seconds ne facturent pas mais laissent ce soin à l'opérateur. Dans les deux cas, ils doivent commercialiser, installer, câbler, maintenir.
L'opérateur prévoit une demi-journée de présentation le 23 juin, à la CCIP Paris. Siemens sera partenaire de cette conférence. D'autres sont prévues, notamment en région avec les DSP. Un programme d'accompagnement, A-Point va définir la relation avec les partenaires.
ARM s'active pour développer un écosystème logiciel pour serveurs
Selon des responsables de la firme britannique, ARM Holdings recherche l'appui d'éditeurs de logiciels en vue d'installer ses processeurs basse consommation dans des serveurs. Actuellement en effet, la plupart des logiciels tournant sur serveurs sont conçus pour fonctionner avec des puces x86 d'Intel ou d'AMD. Pour les rendre exécutables sur des serveurs à base de processeurs ARM, il est indispensable de réécrire ces logiciels, les architectures ARM et x86 utilisant des codes d'instructions différents. « ARM a mis sur pied une équipe spéciale pour développer le secteur du serveur.
Leur mission consiste aussi à inciter les éditeurs de logiciels de virtualisation et les vendeurs de systèmes d'exploitation pour serveur, à écrire des applications pour leurs processeurs, » a déclaré James McNiven, vice-président de Software Alliances, au cours d'une conférence diffusée sur le net. Acteur dominant sur le marché des terminaux mobiles, avec une architecture processeur qu'il développe et vend sous licence, ARM est quasiment absent du marché des serveurs. Mais, alors que de plus en plus de serveurs sont connectés à Internet, ARM pense qu'il y a là une opportunité pour placer ses puces dans des machines chargées d'exécuter des tâches pour le web, comme la recherche et les opérations relatives au réseautage social.
Des puces bien adaptées aux exigences web
Au cours de cette journée de conférence consacrée à la stratégie de l'entreprise, les responsables d'ARM ont fait valoir que les processeurs du designer étaient rapides et plus économes en énergie pour ce type de travail que les puces serveur classiques comme les Xeon d'Intel ou les Opteron d'AMD. « Nous pensons que le serveur est une bonne opportunité pour ARM. Nous voulons mettre à profit l'expérience acquise depuis de nombreuses années, pendant lesquelles nous avons travaillé avec plusieurs écosystèmes différents, et l'appliquer à l'écosystème des serveurs, » a encore déclaré le vice-président de Software Alliances. Sur le marché du serveur, ARM est relativement novice par rapport à Intel et à AMD, dont on retrouve les processeurs dans tous les datacenters existants.
[[page]]
Mais il y a deux ans, ARM a commencé à lorgner du côté du marché des serveurs, affectant une équipe de marketing et du personnel en recherche et développement pour évaluer les opportunités du secteur. Il y a un an, l'entreprise a construit, avec le fabricant de puces Marvell, dont certains processeurs sont à base d'architecture ARM, un prototype de serveur web. En novembre dernier, Marvell a annoncé une puce serveur quad-core cadencée à 1,6 GHz, justement basée sur l'architecture ARM. « Depuis 18 mois environ, nous avons installé une partie du site ARM.com sur ce serveur pour récolter une série d'informations essentielles et mieux comprendre comment fonctionnait le marché, » a déclaré James McNiven. En août dernier, ARM a investi dans la start-up Smooth-Stone qui conçoit des serveurs basse consommation. L'entreprise, rebaptisée Calxeda, a annoncé un serveur basse énergie à base de processeur ARM, mais son produit n'est pas encore disponible.
Le nerf de la guerre sera bien le logiciel
Reste que les serveurs ne sont utilisables que s'il existe des logiciels capables de fonctionner avec ses puces, de sorte que ARM se préoccupe aussi du développement d'un écosystème logiciel compatible avec l'architecture de ses processeurs. Le designer propose pour cela des outils de développement et travaille avec des développeurs externes pour écrire des logiciels adaptés. En septembre de l'année dernière, ARM avait présenté un premier processeur Cortex-A15 susceptible d'être intégré dans des serveurs. Selon James McNiven, ARM cherche à travailler avec des éditeurs de logiciels de virtualisation pour créer des applications capables de tirer parti des fonctionnalités de son processeur.
Alors que le marché s'ouvre davantage, ARM envisage également de collaborer avec certains éditeurs pour développer des systèmes d'exploitation pour serveur et optimiser des runtimes de type Java capables de tourner de manière efficace sur des processeurs ARM dans des environnements serveur. « Le fondeur voudrait réutiliser le code existant, celui écrit pour les appareils mobiles, pour créer son écosystème logiciel pour serveur, » a indiqué le vice-président de Software Alliances. Cela permettrait aussi aux entreprises de réduire leurs coûts de développement de logiciels.
Microsoft et Google travaillent déjà pour ARM
Selon James McNiven, « ARM a pu réutiliser le code mobile sur son serveur interne, et des logiciels, comme les navigateurs internet ou les piles réseau, peuvent être facilement portés sur différents types d'appareils. » ARM a refusé de nommer les éditeurs de logiciels avec lesquels elle avait travaillé. Mais on sait que la société a collaboré avec succès avec Google, Apple et Microsoft dans le cadre du développement des systèmes d'exploitation mobiles Android, iOS et Windows Phone 7. Le prochain système d'exploitation de Microsoft, Windows 8, fonctionnera également avec les processeurs ARM, et Google a annoncé qu'elle développait une version de Chrome OS exécutable par les puces ARM.
Mais ARM doit aussi faire face à des défis dans le domaine du hardware pour être présent sur le marché des serveurs. De type 32 bits (32 bits pour ses instructions), son processeur Cortex-A15 ne supporte pas plus de 4 Go en mémoire physique (2 To environ en 64 bits). Pour Warren East, CEO d'ARM, ce n'est pas un handicap : « les processeurs ARM peuvent déjà intéresser une grande partie du marché des serveurs, puisque de nombreuses applications exécutées sur les serveurs cloud tournent encore en 32 bits. »
(...)(19/05/2011 10:04:31)Avnet en passe d'acquérir Amosdec, grossiste spécialisé dans le cloud computing
Le rachat du grossiste français Amosdec par le géant américain Avnet est une quasi certitude et sera effectif en juillet après approbation des autorités. Pourquoi Amosdec ? Il faut savoir que le distributeur IT américain a engagé un virage vers les marchés les plus dynamiques, tels que le cloud computing. Si ce repositionnement commence à être perceptible aux Etats-Unis et dans certaines grandes filiales, Avnet reste considéré en France comme un grossiste spécialisé dans les composants et les accessoires. Le rachat de Bell Microproducts, qui ne date que du printemps 2011 (600 millions de dollars tout de même) n'a pas réellement modifié l'image de la filiale française.
French exception ?
La nouvelle entité française pourrait ainsi compter plus de 100 salariés à la rentrée, pour un chiffre d'affaires qui est soigneusement tu (« Nous sommes cotés en bourse et ne pouvons pas communiquer ce type de données », indique Orlane Marin, Directrice Générale France d'Avnet). Quoi qu'il en soit, cette acquisition permettrait à Avnet France de se positionner sur le marché très porteur du cloud computing, sur lequel Amosdec entend jouer parmi les premiers rôles (Amosdec se présentait dès 2009 comme le 1er acteur français pour la distribution de solutions de virtualisation, voir Disitributique du 20 octobre 2009). « Cette acquisition doit encore être annoncée au conditionnel, mais elle permettrait à Avnet de compléter en France et en Europe son offre de produits et de compétences, sans oublier que cela permettra d'améliorer sensiblement la rentabilité », conclut Orlane Marin.
Illustration: Siège social d'Avnet
(...)(19/05/2011 10:05:23)Trimestriels Dell : Des perspectives rassurantes
Dell affiche un tout autre visage qu'HP. Non que ses résultats soient plus flamboyants que son concurrent, mais ses perspectives et sa crédibilité semblent meilleures. Dell progresse ainsi de 1% sur le trimestre avec 15 milliards de dollars de chiffre d'affaires. Son résultat opérationnel (Gaap) se monte à 1,2 milliard de dollars en hausse de 134%, le résultat net (Gaap), atteint les 945 millions de dollars, en progression de 177%.
L'essentiel de l'activité de Dell, 12 milliards de dollar sur les 15 enregistrés au total provient des entreprises. Le CA sur cette activité progresse de 3%. Sur ce marché, les solutions et les services augmentent de 5% à 4,4 milliards de dollars, c'est 30% de l'activité totale de Dell. Les serveurs et les équipements réseaux progressent de 11%, les technologies de stockage (Compellent, EqualLogic et PowerVault, DX Object Storage) augmentent de 11%.
+5% dans les grands comptes
Par secteur, Dell annonce une hausse de 5% de son CA dans les grands comptes avec 4,5 milliards de dollars, le résultat opérationnel progresse de 11,3% à 504 millions de dollars. Le secteur public est en hausse de 2% à 3,8 milliards de dollars. Les PME progressent de 7% à 3,8 milliards de dollars. Le secteur des particuliers augmente de 7% à 3 milliards de dollars.
Dell prévoit 5% de hausse de son chiffre d'affaires pour son prochain trimestre, 5 à 9% pour l'ensemble de l'année (avec un bénéfice en hausse de 12 à 18%). Dell profite des effets de son plan de restructuration et de la bonne tenue de ses activités services et stockage.
(...)
VMware lance un service d'authentification unique pour les applications cloud
« Horizon App Manager est capable d'utiliser les annuaires utilisateurs de l'entreprise pour les étendre à des services délivrées en cloud, sans redemander les noms d'utilisateur et les mots de passe associés, » affirme la filiale d'EMC. « Avec ce service, les salariés peuvent accéder à un portail web en utilisant leur nom d'utilisateur et leur mot de passe professionnel, puis profiter de différentes applications hébergées sans avoir besoin de s'authentifier à nouveau, » a déclaré Noah Wasmer, directeur Product Management, Advanced Development, chez VMware.
Selon l'éditeur, les utilisateurs peuvent uniquement voir et accéder aux applications pour lesquelles ils disposent d'une autorisation. « Beaucoup de clients souhaiteraient utiliser des services hébergés, à condition de pouvoir utiliser les annuaires internes de l'entreprise pour couvrir ces services, » explique Noah Wasmer. En effet, il constate que « les entreprises sont très préoccupées à l'idée que les noms d'utilisateur et les mots de passe soient stockés dans le nuage ».
Sécurisation et évangélisation du cloud
Le service VMware synchronise la liste interne des comptes utilisateurs avec les répertoires Active Directory et LDAP (Lightweight Directory Access Protocol) existant. Aucun mot de passe n'est transmis entre les annuaires internes et la solution Horizon App Manager. La sécurisation des échanges s'effectue avec des tokens reposant sur le standard SAML (Security assertion markup language). Pour développer ce système, VMware a travaillé avec différents fournisseurs de services cloud, comme Salesforce.com et Google, et avec sa propre solution collaborative Zimbra. La firme signale qu'il est possible de développer des connecteurs additionnels pour mettre en relation des services internes à d'autres fournisseurs, en écrivant une interface SAML dédiée.
« Le portail client a également d'autres avantages, » a déclaré Noah Wasmer. Notamment, il offre aux employés la possibilité d'accéder aux services cloud, quel que soit leur équipement informatique. Il permet aussi aux entreprises de mettre en place des catalogues d'applications en interne que les employés peuvent consulter, afin de choisir celles qui répondent le mieux à leurs besoins. Le service réduit aussi le nombre de mots de passe nécessaire, et permet aux entreprises de mieux contrôler la manière dont leurs employés utilisent les services cloud. Le directeur de VMWare a indiqué que ce service est un élément de ce qui pourrait éventuellement devenir un service de gestion des applications dans le cloud. Lundi, la firme de Palo Alto a annoncé avoir conclu un accord pour acquérir Shavlik Technologies, un éditeur qui développe des solutions de management traditionnel et des services spécialisés dans la sécurité des réseaux, notamment la gestion de correctifs et la supervision de la sécurité des environnements physiques et virtuels.
Le service Horizon App Manager est disponible et coûte 30 dollars par utilisateur et par an.
Autonomy s'offre une partie d'Iron Mountain
La GED subit aussi la loi des concentrations. Autonomy a annoncé l'acquisition de certaines activités d'Iron Moutain. Il s'agit des solutions de sauvegarde et de restauration de données en ligne, d'archivage numérique et d'eDiscovery (logiciel maison sur les documents faisant office de preuves). Le coût de l'opération est estimé à 380 millions de dollars. Cette démarche s'inscrit dans un plan stratégique sur 3 ans conçu par Richard Reese, CEO d'Iron Mountain, qui passe par la cession de certaines activités. L'entreprise américaine conserve deux activités, l'enterciement de logiciel (contrat de protection de la licence du code source d'un programme) et ses centres d'archivage numérique pour l'imagerie médicale. Pour mémoire, Iron Mountain a obtenu récemment en France l'agrément pour l'archivage public, l'opération avec Autonomy ne devrait pas avoir d'impact dans ce domaine.
Pour Autonomy, cette opération va renforcer son activité cloud et lui apporter une base clients d'un millier d'entreprises, ainsi qu'un volume de données de 25 Petaoctets.
| < Les 10 documents précédents | Les 10 documents suivants > |