Flux RSS
Cloud computing

904 documents trouvés, affichage des résultats 41 à 50.
< Les 10 documents précédents | Les 10 documents suivants > |
(06/02/2012 13:03:33)
Le fonds national d'amorçage augmenté de 200 millions d'euros
Ce FNA est opérationnel depuis quelques semaines et vient d'être doté de 200 millions supplémentaires. Il complète un autre fonds créé par l'Etat, le FSN PME, créé au 1er juin 2011 et doté de 400 millions d'euros. Ce fonds est destiné aux PME innovantes de taille supérieure à celles accompagnées par le FNA. Ce FSN PME a déjà instruit 50 dossiers a indiqué Eric Besson mercredi dernier. Le FSN doit « prendre des participations directes, jusqu'à 30 % du capital, plafonné à 10 M€, dans le capital de PME innovantes du secteur numérique (cloud, numérisation de contenus, nanoélectronique, logiciel embarqué, e-santé, sécurité des réseaux, systèmes de transports intelligents, ville numérique et e-éducation).»
Ces deux fonds d'Etat, sont les fers de lance du financement des entreprises l'économie numérique. Ils sont gérés par la Caisse des dépôts.
L'IBM Watson bientôt opérationnel en France
Système massivement parallèle d'analyses sémantiques et statistiques, le superordinateur IBM Watson, développé par l'équipe de David Ferrucci, a fait sensation en février 2011 en réussissant à participer avec succès au jeu TV Jeopardy. Développé après le projet Deep Blue, un superordinateur spécialisé dans le jeu d'échecs, Watson repose sur la plate-forme processeur Power7 (avec pas moins de 2 880 coeurs), des algorithmes développés pour la recherche et les briques logicielles Content Analytics de Cognos pour l'analyse du langage naturel et Infosphere Big Insight, un framework Hadoop associé à une base Netezza pour digérer la documentation. Lors de sa journée Innovation à Bois-Colombes, IBM France nous a détaillé les nouvelles ambitions de la plate-forme Watson. Jean-Claude Jesionka, architecte chez IBM France, nous a évoqué devant un simulateur Watson (voir illustration principale), les projets et développements à venir.
Après les jeux télévisés, IBM a réfléchi à quels usages commerciaux pourrait être utilisée la plate-forme Watson. Quelques pistes sont rapidement apparues. Avec ses capacités à comprendre le langage naturel et à assimiler les données spécialisées, Watson peut assister des médecins pour affiner les diagnostics ou envisager des idées alternatives en analysant simplement les symptômes, les antécédents familiaux et les analyses médicales. L'hôpital du Mont Sinaï à Los Angeles a déjà commencé à travailler, pour une phase de tests, avec le Watson. Les médecins peuvent renseigner sur une console le superordinateur qui propose ensuite très rapidement des pistes de diagnostics. Il s'agit bien d'un simple assistant, mais très bien renseigné, car il est nourri des dernières publications médicales. Watson n'a pas simplement été placé dans un hôpital, il a été adapté aux problématiques médicales avec des algorithmes spécifiques.
Traiter les questions d'ordre juridique ou financière
IBM travaille également avec la mutuelle américaine WellPoint, dans le but de trouver les meilleurs traitements médicaux, c'est-à-dire les plus efficaces et les moins chers. D'autres domaines sont aujourd'hui envisagés par IBM comme le corpus juridique, le trading financier et l'économie. Big Blue envisage par exemple de proposer des consultations de Watson en mode service à partir d'une console. Dès cette année, la firme d'Armonk va également commercialiser non pas Watson mais des morceaux de Watson, Content Analytics et Infosphere Big Insight qui sont déjà opérationnels chez certains clients de la solution SPSS. Ce sont ces briques du Watson qui vont être proposées en France cette année.
Si une trentaine de personnes avaient travaillé sur le Watson version Jeopardy, une centaine de personnes sont aujourd'hui rassemblées dans une division d'IBM Software pour personnaliser Watson aux besoins des clients. La démarche est collaborative avec une sélection de clients pour développer des projets. Des partenariats ont ainsi été noués pour le portage de Watson en français qui est actuellement en cours à Montpellier. Le marché francophone sera en effet le second à accueillir la technologie Watson, avant les marchés hispaniques et chinois. Le français a simplement été immédiatement choisi après l'anglais, car la compréhension sémantique est plus facile qu'en espagnol et en mandarin.
Un Watson 2 de la taille d'une tablette
Mais l'avenir de Watson passe par la miniaturisation avec un Watson 2 beaucoup plus compact. Dans une dizaine d'années, Watson sera de la taille d'une tablette. Si on regarde le passé, c'est tout à fait possible, nous a expliqué Jean-Claude Jesionka. « En 1958, nous avions commencé à travailler sur un ordinateur avec l'ambition de battre un champion d'échecs. Nous n'avons réussi à le faire que 30 ans après en 1997, mais nous avons mis moins de 10 ans pour arriver à Watson. Sur le principe, on peut considérer que Watson est un système expert, mais sur le fond beaucoup de choses ont changé. Les systèmes apprenants [comme Watson] sont une des voies sur lesquelles IBM s'est engagé pour gérer les données non structurées.
[[page]]
Avec Watson, IBM veut aller très vite en recherchant des partenariats de co-innovation avec les clients. « Une entreprise nous aide à développer ce projet et on lui laisse l'exclusivité pendant 2 à 3 ans. Passé cette période, la propriété intellectuelle reste chez IBM et peut enrichir d'autres programmes ».
Des puces neuronales à l'étude
Le programme Watson est entré dans sa deuxième phase avec des applications commerciales et à terme des versions appliances ne sont pas exclues même si aujourd'hui, il est difficile de faire rentrer 2 880 coeurs dans un seul serveur. Avec un seul coeur Power7, il faudrait 2 heures de traitement à Watson pour répondre à une seule question. Il reste donc encore du chemin à parcourir et IBM explore plusieurs voies pour y arriver avec notamment les puces silicium inspirées des neurosciences, les SyNAPSE.
(...)(03/02/2012 11:47:01)Le cloud va-t-il diviser en 2 les départements informatiques ?
38% des CIO de la région DACH (Allemagne, Autriche et Suisse) s'attendent à une augmentation de leur budget IT pour 2012. C'est ce qui ressort de l'enquête annuelle IT-Trends 2012 de Capgemini. En Suisse, ce chiffre d'élève à 31%. Au contraire, plus de 42% des CIO suisses estiment qu'ils devraient disposer d'un budget IT 2012 similaire à celui de 2011 contre 33% pour l'ensemble de la région DACH.
Quel rôle pour le CIO dans le futur ?Dans le même temps, les analystes de Capgemini ont interrogé les CIO sur le rôle du CIO aujourd'hui et dans le futur. Si aujourd'hui 51,2% des CIO s'estiment plus comme un partenaire du business et 48,8% d'entre eux se voient comme un prestataire de services qui ne fait que répondre aux demandes, près de 82% des CIO estiment que dans le futur, ils seront un partenaire du business. En outre, si aujourd'hui la plupart des CIO se voient comme une personne chargée d'optimiser les processus métier plus qu'un innovateur, dans le futur, ce rôle devrait s'inverser.
Deux départements informatiques en 2022 ?
Quand on les interroge sur le futur du département IT dans 10 ans (voir graphique), plus de 42% des CIO estiment qu'il y aura en fait 2 divisions informatiques: un département IT technique et un département informatique pour les processus métiers. 38% des personnes interrogées considèrent que dans la mesure où la plupart des services informatiques seront obtenus via le cloud, le département informatique sera réduit au minimum et son rôle sera de définir les exigences et d'intégrer les services.
ICTjournal.ch (...)(02/02/2012 16:52:57)Attention au prix des outils BI en mode SaaS
Le développement des demandes de cloud ou de SaaS n'est pas une surprise. De plus en plus de responsables financiers ou informatiques sont tentés de faire appel à ce type d'offres pour répondre à une augmentation des besoins en Business Intelligence. Deux raisons à cela, les faibles couts de démarrage ou de déploiement et l'absence de compétences nécessaires en interne pour construire leurs propres solutions analytiques.
La migration des entreprises vers le cloud pour le décisionnel se fait très vite. Selon une étude Gartner, un tiers des personnes interrogées (1 364 responsables IT) prévoient d'utiliser des offres SaaS en matière de BI dans les 12 prochains mois pour certaines divisions métiers. Cependant, les directeurs financiers ont un peu de mal à savoir combien leur coutera au final l'utilisation de ces offres. Les logiciels achetés comme un service peuvent généralement être passés comme un investissement, plutôt qu'un achat d'actif dans les bilans financiers. Les acheteurs pensent souvent que le SaaS est cher, mais la réalité est plus compliquée. Le modèle de coûts de Gartner montre que le SaaS peut être moins cher au cours des cinq premières années, mais pas par la suite. Les avantages à long terme se trouvent ailleurs - notamment dans le flux de trésorerie et la réduction des coûts de support, indique l'étude.
« Les professionnels sont souvent frustrés par la longueur des cycles de déploiement, les coûts, la complexité des processus de mise à niveau des infrastructures informatiques demandés par les solutions de BI sur site » a déclaré James Richardson, directeur de recherche chez Gartner. « La BI dans le cloud est perçue comme offrant une vitesse de déploiement à faible cout, même si cela reste à prouver ». précise l'analyste. Il constate également que « si l'intérêt est croissant, le marché reste confus sur ce que sont les solutions SaaS et cloud dans le BI et ce qu'elles apportent ».
Vers l'abandon du support d'Hyper-V de Microsoft par OpenStack ?
« Microsoft est déterminé à travailler avec la communauté pour résoudre les problèmes actuels entre Hyper-V et OpenStack », explique la firme de Redmond dans un communiqué. Ce commentaire fait suite à une suggestion sur un newsgroup de Thierry Carrez, développeur de l'équipe de sécurité d'OpenStack, que le code de la technologie Hyper-V soit supprimé de la version d'OpenStack Compute en cours d'élaboration, connue sous le nom d'Essex et qui sera livrée au deuxième trimestre 2012.
Le message titré « couper le bois mort d'Essex » explique qu'il faut supprimer le code Hyper-V « réputé cassé et pas entretenu ». La suppression du code devrait être décidée dans les prochains jours par les 45 membres d'OpenStack. Ils devront regarder si cela ne modifie pas les fonctionnalités de la prochaine version de la plateforme cloud en Open Source.
S'il est enlevé, il ne manquera pas à beaucoup de gens, souligne Joshua McKenty, PDG de Piston Cloud Computing. « Je ne vois pas de déploiement, ni de projet sur cet hyperviseur », ajoute-t-il. Joshua McKenty a été l'architecte technique de la plateforme cloud Nebula pour la NASA et il est très impliqué dans la communauté OpenStack.
Une dégradation pour manque d'entretien
Il a rappelé que Microsoft avait signé un contrat avec un partenaire pour faire le travail d'intégration dans OpenStack, « mais ils n'ont jamais vraiment fini », précise le responsable. Ce non-aboutissement peut avoir des raisons simples, selon Joshua McKenty. Il suffit par exemple que des chefs de projets soient mutés pour que le projet ne soit pas continué ou suivi. Il ajoute que Microsoft peut avoir également décidé de se concentrer sur sa plateforme Azure pour déployer des clouds privés et publics.
Si Microsoft veut vendre des logiciels serveurs pour les fournisseurs de services cloud utilisant OpenStack, le manque d'intérêt pour son hyperviseur pourrait devenir problématique, explique un analyste. « Cela signifie que les gens ne construiront pas de cloud sur Windows, comme architecture de base », constate James Staten, analyste chez Forrester Research. Hyper-V est intégré avec la licence Windows Server Entreprise et cela constitue un manque d'intérêt pour la communauté OpenStack qui pense aussi que les fournisseurs de services cloud n'utiliseront pas Windows Server dans leurs déploiements. « Ce n'est pas surprenant, constate James Staten. Si vous construisez une solution basée sur de l'Open Source, vous allez commencer par des éléments qui n'ont pas de licence du tout ».
Toutefois, il explique que de nombreux fournisseurs de services clouds sont en train de construire deux offres : l'une utilisant un logiciel Open Source et la seconde élaborée à partir de produits commerciaux qui sont utilisés dans les entreprises et pourraient donc être plus attrayants pour les clients d'entreprise. Actuellement, VMware a le gros de la part de marché pour les services de cloud destiné aux entreprises, précise l'analyste.
(...)
Tilera dévoile sa puce serveur 36 coeurs pour concurrencer Intel et ARM
Tilera a présenté sa puce serveur 36 coeurs à destination des datacenters. La Tile-Gx36 est cadencée à une vitesse d'horloge de 1,2 GHz, pour une consommation affichée de 24 watts. « Comparativement à certaines puces serveurs Intel Xeon, très gourmandes en énergie, la puce de Tilera permet d'effectuer plus d'opérations par cycle d'horloge tout en consommant moins, » a déclaré Bob Doud, directeur marketing du fondeur. La puce Tilera possède les caractéristiques d'un processeur généraliste. Elle peut notamment faire tourner le système d'exploitation Linux et les applications couramment utilisées sur le web. Elle intègre moins de coeurs en parallèle que la puce 64 coeurs de Tilera, sortie il y a quelques années, mais elle est néanmoins plus rapide. Grosso modo, un serveur 2U intégrant 8 processeurs 36-coeurs consommera 400 watts, soit autant qu'une boîte comportant 8 puces Tilera 64 coeurs. « La puce Gx36 tourne à une vitesse d'horloge beaucoup plus élevée... et comme elle dispose d'un cache beaucoup plus important, elle peut effectuer plus d'opérations par coeur. Au final, avec une puce 36 coeurs, on obtient des performances nettes plus élevées », a ajouté le directeur marketing.
Selon les analystes, il est difficile de faire une comparaison point par point, dans la mesure où chaque architecture a ses propres caractéristiques. Les processeurs basse énergie d'ARM et de Tilera pourraient être bien adaptés pour traiter les transactions rapides dans le cloud. Les puces x86, qui sont majoritaires, ont fait leur preuve et savent gérer les applications qui ont besoin de beaucoup de ressources, comme les bases de données par exemple. Généralement, les transactions sur Internet sont traitées et servies par des centres de calcul, et l'intérêt pour des serveurs basse énergie ne cesse de croître, entre autre parce que les entreprises cherchent à réduire le coût de leurs datacenters.
Des tests qui dureront des années
Les puces de Tilera sont déjà en cours de test dans certains serveurs. Des précurseurs, comme Hewlett-Packard et Nvidia, sont en train de construire des serveurs expérimentaux équipés de processeurs ARM basse énergie, lesquels équipent la plupart des smartphones et tablettes actuelles. Mais les puces de Tilera, ARM et x86 sont basées sur des jeux d'instructions différents. « La notoriété de ARM est plus importante, mais du fait de ses capacités 64-bits, la puce de Tilera est plus puissante, » a déclaré Bob Doud. En effet, les processeurs ARM actuels sont 32-bits seulement, et la puce serveur 64-bits, annoncée par ARM, ne verra le jour qu'en 2014. « Nous profitons du buzz autour de ARM, » a reconnu le directeur marketing. « Cette agitation est bonne pour Tilera car nous disposons déjà de la technologie. » Le fondeur pourra aussi se tourner vers un de ses actionnaires, Cisco, qui a investi dans la société en janvier 2011.
[[page]]
Selon Dean McCarron, analyste principal chez Mercury Research, « Tilera ne va pas supplanter Intel dans les datacenters du jour au lendemain, et ses puces devront subir plusieurs années de tests avant que leur présence soit significative sur le marché des serveurs. » Les entreprises ne vont pas se passer aussi facilement de la haute fiabilité et de la disponibilité que leur fournissent les serveurs x86. Les précurseurs peuvent tester les puces Tilera sur des systèmes effectuant des tâches avec des priorités basses, comme les serveurs web, sans incidence sur les datacenters en cas de panne. Mais, même ces tests pourraient durer plusieurs années. « C'est ce qui s'est passé, pas seulement avec des puces non-x86, mais aussi avec les puces x86, » a déclaré l'analyste. Celui-ci a rappelé le cas des puces Atom basse énergie x86 d'Intel, utilisées à titre expérimental dans des serveurs pour le service web. « Le marché des puces non-x86 a le même niveau d'exigences. Les constructeurs vont faire leurs tests et éprouver leurs performances, » a déclaré Dean McCarron.
Prendre en compte le TCO et pas uniquement la consommation d'énergie
« Les architectures concurrentes ARM et MIPS présentent des avantages en matière de consommation d'énergie, mais il faut prendre en compte un coût total de propriété avant de comparer les architectures, » a déclaré Jim McGregor, spécialiste en stratégie des technologies chez In-Stat. Selon lui, le fait de disposer de l'architecture la plus économe en énergie ne va apporter aucun avantage, sauf si les entreprises sont prêtes à investir dans le développement de logiciels, ce qui, en général, coûte le plus cher. « Il y a et il y aura toujours des applications qui peuvent justifier de nouvelles architectures pour des raisons de puissance et de performance, mais le développement logiciel ajoute un coût supplémentaire important, sans compter le risque du lock-in qui lie à une architecture unique, » a déclaré Jim McGregor. La puce Xeon d'Intel offre un support logiciel quasi illimitée et un faible coût total de propriété. « Il y a aussi l'alternative AMD, qui offre des puces compétitives en termes de prix et de performance, » a déclaré le spécialiste d'In-Stat.
« Mais les gros clients qui déploient des milliers de serveurs ont leur propre code source et sont moins concernés par le support logiciel, » a déclaré Bob Doud de Tilera. « Les économies réalisées sur quatre ou cinq ans ont plus d'importance, et le fait d'avoir à recompiler le code n'est pas si contraignant que cela, » a t-il ajouté. Les applications Linux standards, comme le serveur web Apache, la base de données MySQL et le logiciel de cache Memcached, ont déjà été portées sur les puces Tilera. L'architecture Tilera supporte plus de 2 000 types de logiciels basés sur Linux, et offre le support logiciel nécessaire. « Nous n'avons aucune opposition, » a déclaré le directeur marketing. « Nous disposons de toutes les bibliothèques essentielles. »
(...)
Dassault Systèmes prépare un cloud public concurrent d'Andromède
Selon nos confrères de BFM Business, Dassault Systèmes qui a abandonné le projet de cloud national Andromède, travaille sur une plate-forme concurrente. « On a trouvé des entreprises réputées et dynamiques avec lesquelles travailler, qui ont une vraie ambition et peuvent agir vite », a déclaré vendredi dernier sur la radio Bernard Charlès, directeur général de l'éditeur. « Fin décembre, nous avons constaté que la structure de coûts [d'Andromède] ne permettait pas d'avoir une solution compétitive car les coûts étaient trop élevés. Donc on s'est retiré de la structure mais pas du projet, que je porte depuis deux ans et demi ».
Depuis le départ de Dassault Système le 22 décembre 2011, la plate-forme cloud Andromède destinée aux acteurs du secteur public et dotée à l'origine d'une enveloppe budgétaire de 285 millions d'euros (voir détails du financement), ne rassemble plus qu'Orange pour la partie infrastructures et du groupe Thales (étroitement lié à Dassault Aviation) pour la partie sécurité. Si certaines SSII se sont montrées intéressées par le projet Andromède - Atos, Cap Gemini et même Bull - rien n'a été annoncé et le projet se réactive avant l'élection présidentielle. Vivek Badrinath, directeur exécutif d'Orange Business Services, nous a ainsi confié le jeudi 26 janvier qu'un directeur général allait être nommé pour Andromède et que le projet allait s'accélérer. « On espère boucler assez vite en 2012 en tout cas pour la couche infrastructure ». Le datacenter de Val Rueil en Normandie, dont l'ouverture est attendue en juin 2012, assurera une partie de la charge. « Il s'agit d'un investissement important pour le groupe et les clients. C'est une de nos contributions au projet Andromède », a expliqué lors de la même conférence de presse, Didier Jaubert, senior vice-président global services chez OBS.
Bull pour remplacer Dassault Systèmes dans Andromède
« Si Dassault Systèmes souhaite déposer un nouveau projet de cloud computing en vue d'un soutien des investissements d'avenir, alors on examinera ce projet dès lors qu'il sera déposé », a indiqué aujourd'hui à l'AFP Eric Besson ministère de l'Industrie. Le 12 janvier dernier, invité aux voeux de l'Afdel, M. Besson avait indiqué qu'il allait réunir le 20 janvier [une réunion finalement reportée sine die] le consortium porteur du projet Andromède afin de le remobiliser et d'analyser la situation après le retrait de l'un de ses acteurs majeurs. « Il y a une ou deux autres options qui se dessine. Je suis raisonnablement optimiste sur les chances d'y arriver ». Rappelons que le projet de cloud national Andromède a été lancé par le premier ministre François Fillon en 2009. Trois ans après la première brique, la nomination d'un directeur général, semble enfin arriver, bientôt suivie par l'inauguration du datacenter, et enfin l'arrivée d'un troisième partenaire technologique. Selon le journal les Échos, « Bull discuterait déjà avec Orange et l'État, et pourrait apporter au consortium son expérience dans le domaine des supercalculateurs informatiques ».
À la question de savoir qui pourrait remplacer Dassault Systèmes sur le plan financier dans le projet Andromède, Vivek Badrinath nous a étonnement répondu jeudi dernier que l'éditeur français apportait une expérience utilisateur très intéressante pour faire tourner des applications très lourdes dans un environnement cloud. Une expérience que l'éditeur a donc décidé d'apporter à d'autres entreprises au sein d'un cloud public concurrent. Un projet que Dassault Systèmes ne souhaite pas détailler plus avant pour l'instant.
(...)(30/01/2012 10:31:07)Magirus référence Embotics, logiciel de gestion des clouds privés
Le VAD pan-européen Magirus signe avec la société canadienne Embotics, qu'il va représenter sur toute la zone EMEA. Ce contrat entre dans la stratégie cloud de Magirus, Embotics a conçu une solution logicielle (Embotics V-Commander) de gestion des clouds privés. Une solution qui positionne les revendeurs sur le conseil, en effet la solution de Embotics permet d'activer des machines virtuelles, de gérer les processus de demande et de validation de bout en bout, elle permet aussi l'analyse et l'affectation des coûts informatiques. (...)
(30/01/2012 10:08:26)Annuels Acesi : forte croissance et des ambitions dans le cloud
Basée près de Strasbourg Acesi publie son chiffre d'affaires annuel 2011. L'intégrateur a réalisé 10 millions d'euros, en progression de 30% « et uniquement par croissance organique » nous précise l'un des trois fondateurs, Jean-Marc Patouret qui dirige le commercial et la France. En 2010, c'était 7,7 millions d'euros et déjà 30% de hausse par rapport aux 5,95 de 2009. Spectaculaire, pour une société fondée en 2004, avec un premier exercice annuel complet en 2005.
Le trois associés fondateurs sont toujours aux commandes, l'un dirige la Suisse, l'autre la partie technique en transversal, le troisième, Jean-Marc Patouret, s'occupe donc du commercial et explique « nous n'avons jamais changé de principe, les trois fondateurs restent aux commandes, de manière équilibrée, la technique ne l'emporte pas sur le commercial et réciproquement. Nous sommes insensibles aux sollicitations des financiers, nous avons 80% du capital et des collaborateurs détiennent les 20% restants. La croissance externe nous est également étrangère, même si nous regardons des dossiers, mais marier deux cultures nous a toujours fait hésiter, nous tenons à nos principes ».
L'essentiel de l'activité reste dans les infrastructures
Le chiffre d'affaires est réalisé à 43% sur l'infrastructure, à 57% dans le négoce. L'infrastructure signifie du conseil, de l'intégration, de la co-gérance (offre nommée Vita), c'est-à-dire de l'infogérance mais chez Acesi on rebaptise l'activité pour bien montrer la proximité avec le client. Historiquement, la société a référencé de grands noms comme Citrix, Microsoft, VMware, c'est également un partenaire important de RES, de HP, et plus récemment de Jasper pour la BI et les bases de données. Mais l'essentiel de l'activité reste dans les infrastructures.
Acesi s'est aussi lancé dans le cloud computing. Sans effet de manche et sans référencer de grands partenaires, toujours pour rester plus proche des besoins du client. Acesi a même bâti son offre à elle avec quatre volets : du cloud privé chez le client, du cloud hébergé chez Acesi, de la sauvegarde avec engagement de réversibilité totale, enfin, du cloud public. C'est de toute manière une évolution de ce qu'elle réalisait déjà.
En accompagnant ainsi ses clients, la société reste bien campée sur son ancrage régional. Historiquement, elle est également en Suisse. Et compte une agence au Canada, avec un manager qui est associé. D'autres formules de ce type pourraient voir le jour dans des régions françaises. Mais sans précipitation. Pour 2012, Acesi prévoit une croissance de 10%.
(...)
Interoute veut concilier cloud public et privé avec Virtual Data Centre
Interoute, grand opérateur européen de services cloud, a annoncé le lancement d'un nouveau produit, le Virtual Data Centre (VDC). Ce service doit permettre aux entreprises de déployer en quelques minutes un environnement virtuel ou une infrastructure de stockage pour leurs applications d'entreprise. Selon Interoute, ce service permet de combiner les atouts du cloud public en termes de flexibilité avec la sécurité offerte par le cloud privé. Contrairement aux offres de cloud computing public traditionnel, VDC est construite sur le réseau MPLS/IP d'Interoute, ce qui garantit aux clients un routage, une sécurité, une performance et des SLA optimums de bout en bout.
Sur les traces d'Amazon«Avec notre Data Centre Virtuel, nous faisons ce qu'Amazon a fait dans le monde du cloud computing public et nous adressons tous les besoins de l'entreprise, publics ou privés», explique Emad Ghanipour, Directeur Suisse d'Interoute. «De nombreuses sociétés ont hésité à passer au cloud computing, soit préoccupées par le manque de sécurité, soit de peur que le cloud empêche le contrôle des données. Avec le Virtual Data Centre, nous permettons aux organisations de voir à l'intérieur même de notre cloud paneuropéen et de décider où et comment elles veulent stocker leurs données. C'est du cloud computing sans compromis».
Avec une structure de coût basée sur un paiement à l'utilisation, le service s'adresse aussi bien à l'utilisation d'un seul serveur à court terme qu'à l'utilisation de multiples machines dans plusieurs pays. VDC est aujourd'hui disponible à Londres, Genève et Amsterdam, et d'autres localisations seront ajoutées courant 2012.
ICTjournal.ch
< Les 10 documents précédents | Les 10 documents suivants > |