Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 51 à 60.

< Les 10 documents précédentsLes 10 documents suivants >


(26/01/2012 17:25:01)

Orange Business Services affiche ses ambitions et son leadership dans le cloud

500 millions de revenus dans le cloud computing en 2015, tel est l'objectif annoncé par Didier Jaubert, directeur de l'activité Global Services chez Orange Business Services, lors d'une conférence de presse à Paris ce 26 janvier. En 2010, la division entreprise de France Télécom a  réalisé un chiffre d'affaires de 50 millions dans ce secteur et annonce une progression de 70% pour 2011 nous a indiqué, en aparté après la conférence de presse, Vivek Badrinath, directeur exécutif d'OBS.

Deux ans après le lancement de son offre cloud pro en décembre 2009, juste avant le départ de Barbara Dalibard pour la SNCF,  et un peu plus de six mois après le lancement de son offre cloud pour les PME, OBS affiche donc une réelle ambition sur ce marché fort de ses ressources maison, à savoir des datacenter répartis un peu partout dans le monde (neuf en tout dont deux en Asie), un maillage commercial dense (220 pays couverts avec du personnel Orange dans 166) et 26 000 points de relais dans le monde pour son offre Business VPN.

Des partenariats logiciels à développer

Dressant rapidement un bilan de l'année 2011, Didier Jaubert annonce un peu plus de 3 600 clients cloud (Danone, Ondeo et Crystal Group par exemple) avec notamment 110 contrats pour l'offre Flexible Computing Express, 2500 pour Le cloud pro et 80 clients pour Business VPN Galerie. Les offres cloud computing d'OBS se segmentent en trois marchés : Le cloud pro pour les TPE (1 à 20 collaborateurs), Business VPN Galerie et Flexible Computing Express pour les PME (plus de 20 collaborateurs) et enfin Flexible Computing pour les grands comptes avec une déclinaison cloud privée reposant sur les technologies mutualisées déjà utilisées dans les services de FT.

Si OBS ne fait pas l'impasse sur la partie applicative dans le cloud avec des partenariats noués avec Sage, SAP, Microsoft ou Ingenico, la branche services d'Orange n'étoffe pas très vite son hub VPN Galerie. De l'aveu même de Yann Glever, directeur marketing Solutions IP France chez OBS, les négociations avec les éditeurs sont longues et difficiles, particulièrement avec les sociétés américaines. L'offre VPN Galerie par exemple ne rassemble pour l'instant que 5 partenaires (Cegid, Sage, Swift, DSS Logistics et Hardis).

Andromède sur les rails en 2012

Sur la question du cloud souverain Andromède, Vivek Badrinath n'a pas éludé le sujet en nous indiquant, en aparté après la conférence de presse, que le projet allait s'accélérer avec la nomination d'un directeur général : « on espère boucler assez vite, en tout cas avant fin 2012 ». Les discussions se poursuivent avec Thalès seulement puisque Dassault Systèmes a quitté le navire. Interpellé par un journaliste qui lui demandait si Andromède n'était pas un bidule comme le disait de l'ONU le général de Gaulle, le dirigeant a répondu que l'idée n'était pas de faire un « bidule » mais de fournir une plate-forme cloud sécurisée pour les différentes branches du secteur public. « Andromède arrive sur un marché naissant qui a des besoins spécifiques en sécurité et sera le socle de la transformation de l'informatique [de l'État français] ».

À la question de savoir si le marché du cloud public était suffisamment mûr pour accueillir  une plate-forme du type AWS/S3, M. Badrinath nous a répondu que « le marché du cloud computing va se développer et qu'il y a beaucoup de place pour se développer, notamment sur la couche logicielle.(...)  Amazon se limite à la flexibilité et ne répond pas aux contraintes de sécurité et de protections intellectuelles. Notre offre, plus sécurisée, répond mieux aux attentes des entreprises françaises ».

(...)

(26/01/2012 15:54:48)

Hitachi Data Systems prépare ses solutions big data

Le Hitachi Information Forum, qui s'est déroulé le 24 janvier à la Défense, a réuni plusieurs centaines de clients et de partenaires du spécialiste de l'infrastructure. La session plénière a été présentée par Emmanuel Villon, Directeur Général de HDS France avec comme orientation la transformation du datacenter en centre d'information.  Au coeur des débats, le concept de big data ou l'explosion du volume de données. Pour Emmanuel Villon, ce concept en est encore au stade embryonnaire dans l'écosystème des partenaires et des clients. « La question qui préoccupe aujourd'hui nos clients sont l'optimisation du stockage. Chez HDS, nous ne pensons pas que la bataille se fera sur le coût au Go, mais sur le volume nécessaire et utile » souligne le dirigeant et d'ajouter « l'objectif est de réduire de 30 à 40% en cherchant et en optimisant les zones de stockage non alloués. On peut ajouter également des solutions de hiérarchisation automatique des données. » Sur l'aspect big data et traitement des données, HDS va présenter dans le courant 2012 une solution applicative pour donner de l'intelligence à la donnée. « Aujourd'hui, les solutions existantes traitent l'information en mode silo, nous allons apporter une couche d'unifications des sources d'information » précise Emmanuel Villon. Les partenariats vont aussi se renforcer sur l'analytique comme le montre l'annonce de novembre 2011 avec SAP pour proposer une offre basée sur Hana.

Construire sa plateforme unifiée

Autre axe de développement pour HDS France, le développement de son offre serveurs blade à destination des datacenters. Cela fait 6 mois que l'activité serveur du groupe est partie à la conquête de l'Europe. Le compute blade , qui se définit comme une fabrique de machines virtuelles hardware, compatible avec les différentes solutions de virtualisation (VMware, Microsoft et Oracle) va devenir le pivot de la stratégie de plateforme unifiée de HDS. Au même titre qu'EMC a réalisé le partenariat avec Cisco et VMware autour des Vblock ou HP avec Blade Matrix, Emmanuel Villon indique qu'une offre similaire pour les grandes entreprises sera proposée dans le courant 2012. Sur la partie réseau, le constructeur devrait faire confiance à Brocade et Cisco. Le dirigeant explique que cette offre unifiée fonctionnera avec l'orchestrateur maison (Hitachi unified compute plateform).

Interrogé sur le partenariat entre HP et Hitachi, sur les baies de stockage haut de gamme, qui pourrait devenir caduque suite au rachat de 3Par, Emmanuel Villon se veut rassurant, « l'accord existe toujours », mais ne précise pas la date limite.

(...)

(26/01/2012 10:50:07)

Le cloud en soutien de la BI selon le Gartner

Selon un sondage effectué par Gartner auprès de 1364 responsables IT, un tiers d'entre eux emploient ou prévoient d'employer dans l'année des offres cloud/SaaS pour augmenter leurs capacités en matière de business intelligence. «Les entreprises sont frustrées par les cycles de déploiement, les coûts, les processus de mise à jour et les infrastructures des solutions de BI installées», explique James Richardson, directeur de recherche chez Gartner. Si les entreprises voient l'intérêt des offres BI hébergées comme alternative, elles sont en revanche peu au fait sur ces solutions et leurs possibilités, avertit l'analyste.
Gartner estime que trois facteurs vont stimuler l'adoption de solutions de business intelligence délivrées depuis le cloud:

- Le temps: les solutions SaaS se déploient plus rapidement, dans un contexte où les ressources humaines et budgétaires limitées de l'IT ne lui permettent pas de répondre aux besoins des métiers.

- Les coûts: Si le SaaS n'est pas nécessairement moins cher, il permet de réduire les investissements et les coûts de support.

- Le manque d'expertise: Les applications d'analyse en mode cloud intègrent d'emblée des connaissances qui permettent de contourner le problème du manque de compétences internes.

Pour Gartner, le scénario de déploiement le plus probable est que les offres SaaS ne viennent pas déranger les plateformes actuelles, mais soient utilisées pour de nouvelles opportunités d'utilisation. « Si leurs applications opérationnelles sont déjà dans le cloud, les entreprises devraient penser à recourir à des solutions cloud pour ces domaines », ajoute James Richardson.

ICTjournal.ch


(...)

(26/01/2012 09:48:08)

Joyent, spécialiste du cloud, lève 85 millions de dollars

Joyent, spécialiste américain de l'Iaas et du Paas, effectue un nouveau tour de table et lève 85 millions de dollars. La société a séduit Weather Investment (holding de l'égyptien Naguib Sawiris présente chez Orascom et Wind)  et Telefonica Digital (le fonds d'investissement de l'opérateur espagnol).

Les investisseurs actuels de Joyent comprennent : El Dorado Ventures, Epic Ventures, Greycroft Partners, Intel Capital, et Liberty Global. Basée à San Francisco, la société est dirigée en Europe par Philippe Weppe.

(...)

(25/01/2012 10:50:20)

Annuels VMware : bénéfices en hausse de 102% en 2011

VMware boucle son année fiscale 2011 sur des chiffres en large croissance. Ainsi, son chiffre d'affaires s'établit à 3,77 milliards de dollars en hausse de 31,8% par rapport à 2010. Les bénéfices enregistrent également une large augmentation pour atteindre 724 millions de dollars, contre 357 millions de dollars en 2010, soit une hausse de 102% en un an. Cette croissance est due tant aux ventes de licences (1,84 milliard de dollars soit 31,3% d'augmentation) qu'aux services (qui incluent la maintenance des logiciels et les services aux professionnels) qui s'élèvent à 1,93 milliard de dollars en hausse de 32,3%.

Les Etats-Unis, qui représentent 48% de l'activité de l'entreprise, ont connu une croissance de 26% quand le reste du monde enregistre 38% de croissance pour s'établir à 1,94 milliards de dollars.

Pour son année fiscale 2012, VMware s'attend à une hausse de son chiffre d'affaires comprise entre 19% et 22% par rapport à 2011. Le chiffre d'affaires devrait s'établir entre 4,475 et 4,6 milliards de dollars. Les revenus provenant des ventes de licences devraient quant à eux connaître une croissance comprise entre 11 et 16%.

ICTjournal.ch (...)

(23/01/2012 15:53:25)

Piston Computing sort son OS cloud OpenStack

Sous le nom de Piston Enterprise OS, ou « PentOS », la start-up Piston Cloud Computing, créée l'an dernier à San Francisco, vient de livrer le premier système d'exploitation pour cloud privé basé sur le framework IaaS (infrastructure as a service) Open Source OpenStack. Ce dernier a été originellement conçu par un groupe de chercheurs de la NASA parmi lesquels se trouvait Josh McKenty, le fondateur de Piston Cloud Computing.

Avec PentOS, Josh McKenty veut apporter aux clients un cloud privé qu'ils pourront vraiment utiliser. L'objectif est d'offrir aux responsables IT chargés de superviser le réseau une option alternative apportant sécurité, fiabilité et facilité d'utilisation. PentOS peut s'installer en moins de dix minutes, indique la start-up dans son communiqué de lancement. Il dispose de mises à jour de sécurité par abonnement et d'un support de niveau entreprise 24 x 7. Il repose sur une distribution Linux personnalisée. Son prix démarre à 3 500 dollars par serveur.

L'architecture « Null-Tier » développée par Piston Cloud Computing combine le stockage, le traitement et le réseau sur chaque noeud pour offrir une capacité d'évolution avec, estime la start-up « une efficacité sans précédent ». PentOS est par ailleurs la première mise en oeuvre de CloudAudit, un standard de sécurité pour le cloud et les environnements virtualisés. Le système d'exploitation est indépendant de l'environnement matériel. Son éditeur rappelle qu'OpenStack est le projet Open Source qui croît le plus vite avec plus de 2 320 contributeurs et 147 entreprises qui y participent, parmi lesquelles Rackspace, la NASA, Citrix, Intel, Cisco, AT&T, Arista Networks, Microsoft et Dell. Lui-même entend jouer un rôle clé en favorisant son développement.

Une offre qui trouve son origine dans Nebula

L'origine de la société en dit beaucoup sur ce qu'elle compte faire avec son OS, mettent en avant nos confrères de Network World. Ce qui a motivé le développement de PentOS trouve son origine dans le travail accompli par Josh McKenty avec la plateforme Nebula Cloud Computing de la NASA. C'est dans ce cadre qu'il a oeuvré comme architecte technique sur les composants originels d'OpenStack. Après avoir hésité à prendre ce poste à la NASA -eu égard à son esprit d'entreprise et aux limites connues des budgets fédéraux- il a rejoint un groupe de chercheurs qui a été capable d'apporter une innovation d'avant-garde dans un cadre improbable. Il considère que son équipe fonctionnait alors de façon assez surprenante comme une start-up au sein de cette structure fédérale, à un moment où c'était possible. « Il y avait beaucoup d'optimisme sur le rôle que le gouvernement pouvait jouer dans l'innovation technologique ».

L'équipe de Piston Cloud Computing
L'équipe de Piston Cloud Computing (sur le fauteuil, le fondateur Josh McKenty) - Crédit photo : Piston. Cliquer ici pour agrandir l'image.
[[page]]
Mais cela ne pouvait guère aller au-delà. Sous l'égide fédérale, les budgets étaient fixés longtemps à l'avance et il y avait peu de flexibilité. « Je ne croyais pas qu'OpenStack offrirait la chance de réinventer. Je voulais faire quelque chose que chacun pouvait utiliser. Le plus grand défi que j'ai eu sur Nebula à la Nasa a été qu'une fois que nous l'avons annoncé et commencé à l'utiliser, nous avons eu des demandes de chaque agence fédérale, de gouvernements étrangers, ainsi que d'états et d'agences locales et nous n'étions pas autorisés, nous n'avions pas de mandat pour leur fournir un service. Ils voulaient tous ce cloud. Ils voulaient tous ce qui est devenu OpenStack. »

Selon Josh McKenty, cette demande serait la même, si ce n'est plus élevée, sur d'autres marchés. Donc quand Rackspace a acquis l'équipe de chercheurs de Nebula, il a dû faire un choix : continuer à travailler sur une infrastructure sur laquelle de nombreuses sociétés pourraient un jour poser leurs fondations. Ou bien bifurquer et fournir des produits qui aideraient ces sociétés à le faire. Il a opté pour la deuxième option, tenté par les opportunités et le potentiel qu'il y discernait.

« J'ai vraiment apprécié l'équipe de Rackspace », a confié Josh McKenty. « Ils ont fait un beau travail en bâtissant une communauté autour de ce projet. Mais il ne s'agit pas d'un fournisseur de produits. Ce n'est pas dans leur ADN et je pensais vraiment qu'il y avait des choses importantes qui devaient être faites avec OpenStack qui ne pouvaient pas avoir lieu en dehors d'une start-up. C'est ce qui a conduit au lancement de Piston Cloud. »

La clé du succès résidera dans le niveau de support fourni

Il reste à voir si la réalité du marché du cloud privé rejoindra les attentes de Josh McKenty pour PentOS. Pour Jay Lyman, analyste senior couvrant les logiciels d'entreprise pour le cabinet 451 Research, il y a une demande pour des outils alternatifs de gestion des clouds privés et des outils IaaS sont apparus pour y répondre. Il y a selon lui de l'intérêt pour des options comme OpenStack.

La clé du succès pour PentOS résidera dans le niveau de support que l'éditeur fournira pour son logiciel Open Source. « Cela correspond à ce que les entreprises ont l'air de vouloir, diversité, variété de choix, avec un fournisseur crédible et un support technique de haut niveau tel que le requièrent les entreprises », poursuit Jay Lyman. « Je pense que PentOS correspond assez bien à ce type de demande qui se présente, disons, comme le meilleur de deux mondes ».

(...)

(20/01/2012 12:49:53)

Annuels IBM : Des bons résultats 2011, mais timides en fin d'année

IBM a publié les résultats financiers du 4ème trimestre et de son exercice 2011. Pour le trimestre clôt le 31 décembre,  la firme affiche un chiffre d'affaires de 29,5 milliards de dollars, en hausse de 2% par rapport au même trimestre de l'exercice précédent. Le bénéfice net a atteint 5,5 milliards de dollars, en augmentation de 4%. Les analystes s'attendaient à un CA de 29,7 milliards de dollars et un bénéfice net de 5,6 milliards de dollars.

Sur l'ensemble de l'année 2011, IBM a enregistré un chiffre d'affaires de 106,9 milliards de dollars, +7% par rapport à l'exercice 2010. Le bénéfice net a progressé de 7% également à 15,9 milliards de dollars. Le bénéfice par action gagne 13% à 13,06 $. « 2011 a été une très bonne année pour nous » explique Mark Loughridge, directeur financier d'IBM et d'ajouter « nos orientations stratégiques et nos investissements dans l'innovation ont permis de développer de nouveaux marchés et de renforcer nos positions sur des tendances comme l'analytique et le cloud ».

Les pays émergents continuent de participer à la croissance pour l'entreprise. Collectivement, les revenus du Brésil, Russie, Inde et de la Chine ont augmenté de 10 % en 2011. La zone américaine a connu une croissance de 3% des revenus pour le 4ème trimestre, tandis que la zone Asie-Pacifique a progressé de 2%, souligne le groupe.  Avec ces résultats, la société a confirmé ses prévisions pour atteindre un bénéfice par action de 20 $ en 2015. Pour 2012, IBM prévoit d'augmenter son bénéfice par action de 10,5% à au moins 14,85 dollars.

Des résultats portés par les services et les logiciels, faiblesse pour le hardware

Christophe Ambrose, vice-président de Gartner Research, explique « Les résultats semestriels montrent encore une fois la croissance des activités logiciels et services d'IBM ». La division Global Technology Services a vu ses revenus croître de 3% à 10,5 milliards de dollars, tout comme la division Global Business Services à 4,9 milliards de dollars. Le CA de l'activité Software est en hausse de 9% à 7,6 milliards. Sur cette partie, on constate que certains produits ont bien marché comme les solutions WebSphere qui ont vu leurs revenus grimper de 21%, 14% pour les logiciels Tivoli et 9% pour l'Information Management. Par contre, les recettes issues de Lotus ont perdu 2%.  
L'analyste de Gartner constate qu'« un certain nombre d'initiatives sur lesquelles IBM a investi au cours des dernières années commencent à générer des revenus, notamment les logiciels et services d'e-commerce de la gamme Smarter Commerce, mais aussi les solutions décisionnelles ». Le CA de Smarter Commerce a progressé de 25% et celui de la BI de 16%.

Un autre axe de croissance est le cloud computing. Dans ce domaine, les revenus ont plus que triplé depuis 2010, a déclaré Mark Loughridge. Christophe Ambrose tempère les propos du dirigeant en s'interrogeant « sur la définition du périmètre du cloud par IBM, s'agit-il des services clouds, de l'aide aux entreprises pour construire les infrastructures clouds ? ».

Pour les autres divisions, on notera que les revenus de Systèmes et Technologie ont baissé de 8% à 5,8 milliards de dollars. Cette chute provient des ventes exceptionnelles du zEnterprise 196 sur l'exercice 2010, qui a stimulé les revenus au quatrième trimestre de 2010, précise Mark Loughridge. Sur un an, le CA des System Z a diminué de 31 %. En revanche, les ventes de System Power ont augmenté de 6%.

(...)

(19/01/2012 17:20:04)

DynamoDB, une base de données NoSQL sur Amazon Web Services

Amazon Web Services a lancé hier, sous le nom de DynamoDB, un service de base de données NoSQL qui procure à ses utilisateurs une performance prévisible sur des capacités évoluant de façon transparente. Ce service, en version bêta, conviendra aux acteurs du web qui récupèrent, stockent et traitent un volume croissant de données. L'hébergeur explique qu'avant la mise à disposition d'une base évolutive de ce type, les utilisateurs d'AWS pouvaient passer beaucoup de temps à préparer leurs bases  pour qu'elles tiennent le choc dans les périodes d'intense utilisation. En effet, les SGBD traditionnels ne sont pas conçus pour se dimensionner aussi rapidement.

« L'ajustement et la gestion des bases de données a toujours été le talon d'Achille des applications web », rappelle Werner Vogels, directeur technique d'AWS. Pour monter en puissance, les entreprises avaient le choix entre acquérir un matériel plus important ou répartir les bases de données entre les serveurs, explique-t-il. « Ces deux approches étaient de plus en plus compliquées et coûteuses », poursuit-il. « De surcroît, il y a une pénurie de profils techniques ayant les compétences spécialisées pour le faire ».

Le service Amazon DynamoDB stocke les données sur des disques SSD et les réplique sur différentes zones de disponibilité du service. Amazon Web Services l'a conçu en s'appuyant sur son expérience de la construction de grandes bases de données non relationnelles pour Amazon.com. Le site de vente en ligne l'utilise en interne  sur sa plateforme publicitaire, ainsi que sur Amazon Cloud Drive (son service de stockage de musique en ligne), IMDb (Internet Movie Database, sabase de données sur le cinéma) et pour son offre Kindle. D'autres sociétés, comme Elsevier, SmugMug et Formspring, y ont également recours.

Une architecture redondante et massivement élastique, souligne Ysance

Les tarifs de DynamoDB sont pour l'instant donnés pour l'Amérique du Nord.  Le service démarre avec un niveau d'accès gratuit offrant jusqu'à 100 Mo de stockage et une capacité en lecture/écriture de 5 écritures et 10 lectures par seconde. Les tarifs d'exploitation sont calculés en fonction d'un forfait horaire basé sur le débit réservé, sur la capacité de données stockées et sur le volume de données transféré. Quand un utilisateur crée sa table DynamoDB, il spécifie quelle capacité il veut réserver en lecture/écriture. Si le débit dépasse la capacité réservée, il peut être limité. Néanmoins, la console de gestion fournie par AWS permet facilement de procéder à des modifications, en fonction des changements de trafic anticipés, explique AWS sur son site.

Partenaire d'AWS en France, l'intégrateur Ysance pointe une avancée sur le plan technique. « Amazon DynamoDB offre à la fois une base de données de type Clé/Valeurs très performante, une architecture redondante, massivement élastique et une intégration native avec l'analytique » dans le cadre d'une offre simple et packagée, commente dans un communiqué Olivier Léal, co-directeur de la division Intégration de la société. Il considère aussi qu'AWS crée un nouveau modèle en proposant désormais un niveau de performance fonctionnelle et non plus une capacité de traitement. Avec ce service, c'est AWS qui « dimensionne l'infrastructure en fonction des besoins du client et non l'inverse », souligne Olivier Léal. (...)

(18/01/2012 16:41:47)

Avec System Center 2012, Microsoft arrive sur le cloud privé

Microsoft a annoncé le lancement de System Center 2012 en version Release Candidate. Une préversion avait été mise à disposition des entreprises qui gèrent plus de 100 000 machines virtuelles souligne Satya Nadella, président de la division Server and Tools Business. Au mois de mars dernier, une version bêta avait donné plusieurs indications sur les orientations de cette solution. En utilisant System Center, une entreprise peut gérer son cloud privé ainsi que les applications et les services qu'elle a dans les clouds publics (Azure ou Amazon). Cette approche hybride est de plus en plus fréquemment utilisée.

System Center 2012 combine huit modules (App Controller, Configuration Manager, Data Protection Manager, Endpoint Protection, Operations Manager, Orchestrator, Service Manager, Virtual Machine Manager) dans un seul produit et répond ainsi à une plainte souvent formulée par les clients sur le paiement des licences. « Nous avons entendu que la gestion des licences est complexe » a déclaré Brad Anderson, vice-président de la division Management et Sécurité de Microsotft. Il n'existera que deux versions, Standard et Datacenter de System Center 2012. De plus, La firme de Redmond base sa licence sur un modèle légèrement différent de celui de ses concurrents. Les clients paient System Center 2012 en se basant sur les serveurs, plutôt que sur les machines virtuelles. Pour Brad Anderson « cela va réduire les coûts des utilisateurs qui font fonctionner plusieurs machines virtuelles par serveurs ». A noter que la solution de Microsoft supporte maintenant XenServer de Citrix.

Multi-équipement et multi-hyperviseur

Lors de la conférence vidéo de présentation du produit, Microsoft a mise en avant quelques entreprises qui utilisent déjà System Center, comme Luftansa, T. Rowe Price et Unilver. Elles ont témoigné que System Center 2012 leur avait permis de faire évoluer rapidement leurs infrastructures et d'automatiser la gestion de leurs systèmes. Pour Microsoft, sa solution s'adresse aux administrateurs des entreprises qui gèrent plus de 30 serveurs. Sur le plan des fonctionnalités, les administrateurs pourront gérer des périphériques ne fonctionnant pas dans un environnement Microsoft, y compris les smartphones. Brad Anderson explique que «  auparavant les terminaux étaient au coeur du processus de gestion, System Center 2012 place l'utilisateur au milieu [de ce processus] » et d'ajouter « cela signifie qu'un administrateur peut définir des politiques pour un salarié quel que soit le terminal utilisé (smartphone ou tablettes), sous Android ou iOS ».

La release candidate de System Center 2012 est disponible immédiatement. S'il n'y a pas d'erreurs de dernière minute, la prochaine étape sera la version finale du produit. En matière de prix, la version Standard commence à 1323 dollars par serveur et 3607 dollars par serveur pour l'édition Datacenter.

(...)

(16/01/2012 18:01:06)

Salesforce.com recrute Vivek Kundra, l'ancien DSI de la Maison Blanche

Salesforce.com a annoncé le recrutement de Vivek Kundra, ancien DSI de la maison blanche, sous la présidence de Barack Obama. Il devient vice -président exécutif de la société pour les marchés émergents afin de promouvoir les bénéfices du cloud dans ces pays. Il reportera directement à Frank Van Veenendaal, président monde des ventes et services.

Vivek Kundra est connu pour avoir mené au sein du gouvernement américain une politique de rationalisation des systèmes IT de l'administration en allant vers le cloud computing. Dès son arrivée à son poste, il avait proposé un agenda en militant pour l'adoption du cloud et la consommation des technologies à l'usage et rendre les données disponibles au public sur des sites, tels que data.gov. Il a été critique sur les grands contrats IT qui avançaient trop lentement et comportaient de risques d'échec. Il a démissionné au bout de 2 ans et demi.

(...)

< Les 10 documents précédentsLes 10 documents suivants >