Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1021 à 1030.

< Les 10 documents précédentsLes 10 documents suivants >


(21/06/2010 15:49:01)

Watson, un superordinateur s'essaye au jeu TV

Après Deep Blue qui avait vaincu Gary Kasparov aux échecs en 1997, IBM relève un nouveau challenge en inscrivant son supercalculateur, Waston, à l'émission de télévision Jeopardy. Le concept est de retrouver la question qui correspond à la réponse donnée par l'animateur. L'ordinateur sera en compétition avec deux autres joueurs, qui ont été sélectionnés pour leurs bonnes prestations antérieures.

Depuis 3 ans, les ingénieurs d'IBM ont travaillé sur la mise en place d'un ordinateur, baptisé Watson, qui utilise les ressources du supercalculateur Blue Gene,  uniquement axé sur le  jeu télévisuel. La mission est double, comprendre la question posée en langage humain (et donc de prendre en considération élocution et accent du présentateur) et trouver la réponse (qui en l'occurrence est une question). Pour cette dernière partie, le superordinateur a compilé des millions de données (aucun accès à Internet n'est établi), mises en musique par des algorithmes pour comprendre et analyser les propos de l'animateur.

Plusieurs tests ont été réalisés et Watson gagne dans la plupart des cas contre des candidats de bons niveaux. Cependant, il a certaines faiblesses quand le jeu dérive sur des jeux de mots ou des expressions particulières. La vraie confrontation aura lieu à l'automne.

 

Crédit Photo: IBM

(...)

(21/06/2010 12:21:37)

Intel se dote d'un cloud privé

Cela a permis d'optimiser le taux d'utilisation des serveurs de 59% au premier semestre 2006 à 80% aujourd'hui. En réduisant les dépenses d'infrastructures et en évitant la construction de nouveaux datacenters, Intel estime les économies à 200 millions de dollars. Fort de ce succès, la firme a décidé au début de l'année 2009 de se doter d'un cloud privé pour ses bureaux et les filiales du groupe.

De 2005 à 2006, les demandes des nouveaux secteurs d'activités ont fait augmenter considérablement les besoins (applications métiers, tests) des équipes de développement, qui fonctionnaient sur des infrastructures non partagées et sous-utilisées. En sachant que ces dernières représentent un élément important de l'activité R&D, la migration vers un modèle IaaS et Paas était devenu une étape logique.

Intel a donc implanté une solution de Grid Computing au sein de la R&D, qui reprend les fonctionnalités du IaaS et PaaS. Le service est ainsi accessible à travers un portail en libre-service et une interface de lignes de commandes. Le premier permet aux utilisateurs de choisir des éléments clés de l'infrastructure comme le stockage, en volume horaire plutôt qu'au mois. Le plus important pour le fondeur est de mesurer exactement la consommation informatique des salariés.

Un changement de mentalité

Das Kamhout, ingénieur cloud, explique « tout cela représente un changement radical d'état d'esprit » et d'ajouter « le modèle à la demande en libre-service permet aux services IT de s'écarter du schéma traditionnel de l'entreprise et de donner à l'IT un rôle de partenaire stratégique. Avec des tarifs affichés, chacun au centre R&D d'Intel peut maintenant connaître ce qu'il consomme et ce que cela coûte. »

En quoi la solution déployée est-elle unique ? La combinaison du portail à la demande en libre-service sur l'ensemble de l'infrastructure d'Intel et la mesure de la consommation minimise les capacités non utilisées et alloue de manière plus efficace les ressources, en maintenant une haute disponibilité de services.

Devant le succès remporté par son approche, Intel a décidé de la répliquer à travers toute son organisation. Des travaux sont déjà en cours pour le siège et les sociétés du groupe, avec un focus particulier sur la généralisation de la virtualisation et la mise en place d'un cloud privé proposant des solutions à la demande en libre-service.

 

Crédit Photo: DR

(...)

(17/06/2010 17:11:11)

Stockage en ligne : Trend Micro acquiert Humyo

Si le montant de la transaction n'est pas connu, on sait ce que Humyo propose comme solution. La société anglaise fondée en 2007 a offert à 600 000 utilisateurs de disposer d'un espace de stockage en ligne gratuit de 10 Go. Une offre professionnelle existe également avec de la synchronisation de données, la sauvegarde de fichiers plus volumineux et la possibilité de travailler sur un même document avec des collaborateurs à distance.

Pour Eva Chen, PDG de Trend Micro, « cette solution de stockage en ligne, qui est simplement une technologie cloud, s'insère parfaitement dans notre stratégie de fournir de la sécurité pour et depuis le cloud ». Dan Colon, co-fondateur d'Humyo souligne qu'« avec le développement de l'iPad ou des télévisions connectées à Internet, les gens veulent avoir accès aux informations où et quand ils le souhaitent, le stockage en ligne et la synchronisation peuvent répondre à ces besoins ».

(...)

(17/06/2010 15:07:05)

Une start-up améliore la fiabilité des SSD professionnels

Anobit indique que la technologie MLC étend la capacité d'écriture de 3 000 à plus de 50 000 cycles d'écritures. Cette solution est idéale pour certaines applications professionnelles, comme par exemple les bases de données relationnelles. Disponibles en version 200 Go et 400 Go avec une interface SATA. En leur adjoignant un adaptateur externe, ils peuvent fonctionner en SCSI ou Fiber Channel. Côté performance, les débits atteignent 220 Mbit/s en lecture et 180 Mbit/s en mode d'écriture.

La jeune société, fondée en 2006, a inventé un processeur spécial, appelé Memory Signal Processor, qui renforce la fiabilité des mémoires flash MLC Nand, à travers un algorithme de correction d'erreurs. Pour Gilad Engel, vice-président du développement « MSP ajoute un niveau de correction d'erreurs à celui qui existe déjà sur les contrôleurs SSD existants et qui se nomme ECC ». Le responsable souligne que le disque Genesis de 200 Go peut gérer jusqu'à 2 To de données en écriture par jour pendant 5 ans et le 400 Go peut supporter 4 To. L'ensemble de ces disques  autorise une vitesse  de 20 000 I/O en écriture par seconde et de 30 000 en lecture. Ils supportent en natif des tailles de blocs de 512, 520 et 528 bytes et une mémoire cache non volatile qui protège contre les incidents. Aucun prix n'a été dévoilé.

Pour Gregory Wong, analyste chez Forward Insights, Anobit n'est pas le seul à proposer des processeurs SSD et une amélioration de la fiabilité de la mémoire flash MLC Nand. Sandforce a ainsi réalisé une puce qui utilise la compression de données et une architecture RAID, permettant d'aller au-delà des limitations du MLC. « Sandforce repose sur un codage ECC 24-Bit/512-byte. Néanmoins, le grand problème est que la dégradation de la qualité du signal et la technologie Anobit peut aider à avoir un signal plus propre »

(...)

(17/06/2010 13:47:56)

Cloud et secteur public, IBM creuse son sillon

Lors d'une journée spéciale cloud et secteur public à la Maison de la Chimie à Paris, de nombreux responsables informatiques travaillant pour des universités, des collectivités territoriales, des établissements publics et des administrations d'Etat se sont frottés aux solutions proposées par Big Blue pour évoluer vers le cloud. Lors d'un déjeuner, quelques journalistes ont pu discuter de ces questions avec Philippe Jarre, directeur général IBM Global Technology Services qui a succédé à Nicolas Sekkaki, et Éric Cabos, directeur de l'activité secteur public chez IBM. Une discussion informelle, l'occasion d'échanger librement sur ce sujet d'actualité.

Première étape, le secteur public doit savoir pourquoi elle veut aller vers le cloud nous explique Philippe Jarre. Souplesse à l'usage bien sûr mais également réduction des coûts de déploiement applicatif et meilleur partage des ressources. « Si l'état français n'est pas prêt de devenir, comme en Chine, un fournisseur d'infrastructure pour les start-ups, le cloud est un des domaines qui pourrait muscler la France. Notamment au niveau des collectivités territoriales pour redonner un coup de fouet à un bassin d'emplois. » Au coeur de ce dispositif, on trouve bien sûr des infrastructures informatiques, Philippe Jarre n'était pas pour rien auparavant responsable de l'activité datacenter monde chez IBM.

Pour Éric Cabos, les services publics ont déjà réalisé un grand nombre de choses pour améliorer leurs relations avec les usagers. « Des restructurations sont encore nécessaires pour améliorer les systèmes, mais le mouvement est engagé vers une meilleure optimisation des ressources. Deux à trois années sont encore nécessaires pour passer au cloud. Il  s'agit d'un investissement majeur en terme d'infrastructures. »


En illustration, Philippe Jarre, directeur général Global Technology Services, IBM France 


[[page]]

Il y a trois à quatre ans, IBM commençait à répondre aux demandes des entreprises privées pour le cloud et a mis à disposition ses capacités et ses solutions pour accompagner l'évolution. Mais aujourd'hui les datacenters publics n'offrent pas encore les conditions d'accès nécessaires pour assurer la résilience propre aux infrastructures clouds. En effet grâce à sa résilience, une infrastructure cloud peut être utilisée de manière préemptive pour transférer des fichiers en cas d'incident informatique, ce qui permet d'éviter toute perte de données et d'accélérer le processus de reprise.

À la question de savoir ce qui coince dans le secteur public pour passer au cloud, Éric Cabos répond sans détour: «  la rationalisation, l'argent, l'effort et le temps ». Actuellement les administrations françaises partagent peu leurs moyens informatiques, mais le cloud est une opportunité de remettre l'ouvrage sur le métier. « Il s'agit bien d'une excellente excuse pour se remettre au travail. Je crois par exemple aux initiatives clouds des campus universitaires qui pourront plus facilement proposer des postes de travail à jour, aux collectivités territoriales, aux retraites complémentaires » explique Éric Cabos. « Nous avons beaucoup de discussions et d'études avec les administrations, mais pas encore de projets » ajoute Philippe Jarre. « Certains domaines sont plus accessibles que d'autres, comme la collaboration et le poste de travail, mais tous les grands ministères, les affaires sociales par exemple, s'intéressent au cloud». « On pourrait envisager qu'une administration développe une expertise et la mette au service des autres via un service cloud », précise Éric Cabos. « Et si le cloud pour le secteur public sera tout d'abord privé, le concept de cloud hybrides est un passage obligé pour offrir des services aux autres branches de l'Etat ». Sauf que le statut juridique du secteur public interdit pour l'instant ce genre de bonnes pratiques et que les appels d'offre de services sont encore extrêmement cadrés. Alors oui aux clouds, mais pas encore au partage de ressources entre les différentes administrations. (...)

(16/06/2010 15:53:43)

Les créateurs d'Amazon EC2 lancent une start-up dédiée au cloud

Basée à Menlo Park, en Californie, et à Cape Town, en Afrique du Sud, celle-ci a été fondée en 2008 par deux vétérans d'Amazon, Chris Pinkham et Willem van Biljon, avec le soutien de la société de capital-risque Sequoia.

« Responsable de l'infrastructure informatique de tous les centres de calcul, des bureaux et des installations d'Amazon.com entre 2001 et 2006, Chris Pinkham est à l'origine d'EC2 dont il a dirigé l'élaboration, » comme l'indique son profil LinkedIn. Willem Van Biljon quant à lui, il a passé à peine un an chez Amazon, et a fait partie de l'équipe qui a construit la première offre Elastic Compute Cloud (EC2) d'Amazon dont il conduit la gestion produits et la stratégie commerciale jusqu'en juillet 2006.

Lancée en version bêta publique en août 2006, Amazon EC2 a depuis joué un rôle majeur, faisant du cloud une alternative viable aux modèles d'infrastructure informatiques existants. EC2, qui s'appuie en grande partie sur la virtualisation, permet aux clients d'acheter des capacités de calcul brutes en fonction de leurs besoins, avec la possibilité d'accroître ou de réduire à volonté leur demande.

Des solutions encore nébuleuses

Les deux responsables n'ont pas révélé grand chose à propos de Benguela, si ce n'est qu'ils prétendent avoir développé « des logiciels pour infrastructure Cloud » qui vont «révolutionner la façon dont les entreprises interagissent avec le nuage informatique. » Girish Kalele, ingénieur chez Benguela, décrit les solutions sur son profil LinkedIn comme étant « la prochaine génération d'outil de virtualisation réseau pour les centres de calcul. »

Benguela a récemment recruté Quinton Hoole, ingénieur informatique et Kuyper Hoffman, ingénieur système, issus d'Amazon également. La jeune structure cherche aussi à recruter un spécialiste logiciel, formée à la conception de code pour des systèmes demandant « un niveau élevé de disponibilité, de sécurité et de performance... » et « ayant la capacité de travailler, ou apprendre à peu près n'importe quelle brique technologique, avec une préférence pour les outils et les méthides open source » en plus de la compréhension de l'informatique virtualisée, du stockage et des environnements réseaux.

Chris Pinkham devrait donner plus de détails sur Benguela la semaine prochaine au cours de la Conférence Structure 2010, où l'entreprise a été nominée pour le prix LaunchPad.

 

 

(...)

(16/06/2010 16:12:37)

Avec BSM 9.0, HP simplifie la gestion des environnements hybrides

Comme les entreprises adoptent progressivement un modèle hybride avec des environnements physiques et virtuels, elles ont aujourd'hui besoin d'outils pour les aider à gérer la performance et la disponibilité de toutes leurs applications, indépendamment du lieu où elles sont exécutées, nous a expliqué, à Issy-les-Moulineaux, Bruno Buffenoir directeur France Software & Solutions chez HP. « On nous demande d'être très créatif pour revoir la façon de gérer les plates-formes et d'accompagner les demandes des solutions métiers. Nous voulons aider les entreprises à simplifier et automatiser le processus de déploiement d'applications dans ce nouveau monde virtuel hybride, cloud, physique, sur périmètre et hors site». Après une phase d'audit des différentes informations présentes dans entreprise, l'éditeur passe aujourd'hui à une seconde étape avec le traitement de ces informations.

Aider les entreprises à se concentrer sur l'innovation

Lors de son événement Software Universe 2010, HP a donc présenté la version 9.0 de Business Service Management (BSM), Test Data Management (TMD) et trois offres de services conçus pour aider les clients à maximiser leurs investissements logiciels. « Avec BSM 9.0, nous proposons tout simplement aux entreprises de se concentrer sur la nouveauté pour laisser la maintenance du quotidien à nos solutions conçues pour simplifier et automatiser la manière dont on gère proactivement les différents événements » souligne Claire Delalande, directrice marketing France Software & Solutions chez HP. Si les équipes informatiques peuvent administrer les applications, les réseaux et les événements de manière plus efficace, tout en respectant la conformité, elles pourront se consacrer à d'autres tâches, où, voir leur effectif réduit, même si HP ne met bien sûr pas ce point en avant.

Industrialisation les systèmes d'informations

« Trop souvent, les informaticiens travaillent dans leur coin et font leur propre choix, mais la tendance est aujourd'hui à l'industrialisation. Avec BSM 9.0, nous contribuons à la mise en place de process industrialisés pour que l'informatique ne soit pas le dernier bastion non industrialisé de l'entreprise », assure Bruno Buffenoir. Quand on voit le nombre d'alertes sur les serveurs, une grande partie n'est pas traitée, car on ne voit pas ce qui est important et de nombreuses alertes sont remontées par les clients faute de moyens de supervision. Pour apporter une solution à ces problèmes, BSM 9.0  maintient une vision actualisée des services et des applications exécutées sur site, hors site, dans un environnement  virtuel ou physique. Pour ce faire, une base de données intégrée baptisée ODB (Operation DataBase), récupère toutes les infos de manières centralisées et facilite le traitement décisionnel. À terme tous les produits de la suite HP convergeront vers ce modèle de données pour fournir une météo des systèmes consolidés. BSM 9.0 s'intègre d'ailleurs automatiquement à l'outil Configuration management System d'HP. Les différents services sont constamment mis à jour pour fournir un état précis aux équipes informatiques. Un point particulièrement important pour la gestion des VM et des Cloud. « Nous avons affaire à un monde mixant Cloud et machines virtuelles où la vitesse et la fréquence de changement sont 10 à 100 fois plus nombreux que dans des environnements physiques traditionnels. Pour ce faire, les entreprises ont besoin d'un système [qui garde la trace de tous ces changements] et capable de suivre en temps réel les évolutions» a expliqué à Washington Paul Mueller,  vice-président marketing de la division HP Software & Solutions.

Crédit illustration : HP Software & Solutions

[[page]]

Des tableaux de bord personnalisés, une autre nouveauté de BSM 9.0, permettent également de concevoir des  dashboard sur mesure pour répondre aux besoins des différents services : métiers ou techniques. Cela peut contribuer à réduire le temps nécessaire pour résoudre des incidents et analyser plus rapidement les problèmes de service. Des fonctions collaboratives apparaissent également dans BSM 9.0 pour favoriser la circulation des informations entre les membres de l'équipe technique et accélérer les prises de décision quant aux éventuels incidents. « Ainsi, vous avez une explication contextualisée et l'avis de tout le staff IT », explique Paul Muller. 

Plusieurs éléments étoffent encore le portefeuille BSM 9.0 : Business Availability Center 9.0 pour surveiller et diagnostiquer les applications de surveillance et de diagnostic; Operations Manager i9.0, qui détecte et signale automatiquement les changements dans les applications et les infrastructures physiques ; enfin Network Management Center 9.0, qui rassemble dans une fenêtre unique la gestion des pannes, de la disponibilité et du rendement des applications.

Fournir des données gérées pour les tests applicatifs

Second volet de cette annonce, Test Data Management (TDM), en partie concurrent de la plate-forme Rational d'IBM, automatise les processus de test en fournissant des données aux applications cibles. Si les entreprises ont besoin d'informations pertinentes pour tester leurs futures applications, l'extraction et l'utilisation de données sensibles ne sont pas toujours appropriées, notamment avec les juridictions en vigueur dans les banques et les assurances et la multiplication des ressources externalisées. TDM se propose donc de fournir des data gérées dans les applications et de rendre cohérente ces données dans les différents environnements. « Nous apportons la capacité à pouvoir mettre en place des jeux de données (vieillissement, respect des normes de sécurité...), sans enfreindre de règles. Si hier on pouvait donner des data de production sans grandes contraintes, ce n'est plus, le cas aujourd'hui » nous explique, HP. D'autant plus que l'extraction et la préparation des données pour un cycle de test peuvent consommer jusqu'à 50% des ressources globales ajoute, Paul Muller. Avec TDM, les entreprises peuvent utiliser des outils pour extraire automatiquement, gommer, normaliser et, au besoin, masquer les données, avant de les passer aux systèmes qui en ont besoin. Le coût associé aux essais applicatifs peut ainsi baisser et les entreprises s'assuraient que des données sensibles ne sont pas utilisées en infraction des règles de conformité. 

Des services complémentaires

Sur le plan des services, HP met en évidence et élargit trois offres. Sa plate-forme Solution Management Services (SMS) fournit un soutien logiciel et des services de consultation pour aider les entreprises à simplifier et à optimiser leurs déploiements. La compagnie met également en avant son offre Business Availability Center (BAC) Anywhere pour supporter des environnements sélectionnés. Proposé en mode SaaS dans le Cloud de HP, BAC Anywhere permet aux entreprises de contrôler leur parc applicatif web à partir de n'importe quelle console dans le monde, y compris en dehors de la zone protégée par le pare-feu.  Enfin, BSM 9.0 Services aide les clients à concevoir et à déployer leurs logiciels de la suite BSM

(...)

(16/06/2010 15:16:35)

Le monde de l'optique passe à la vitesse supérieure

Du 14 au 17 juin, le salon Optical Networking a été l'occasion de faire un point sur une technologie cruciale pour les opérateurs, les fournisseurs de services et les grandes entreprises, les équipements fibre optique. Pour Jia Ying Wang, ingénieur en chef chez ZTE « la croissance de trafic IP de nos clients est de plus de 100% par an, il est donc nécessaire de leur apporter des équipements qui répondent à ce besoin ». Et pour le fabricant chinois, cette réponse a un nom, la série ZXOne 8000. Elle se décline en trois produits, le 8200 capable de gérer jusqu'à 800 Gbits de flux, le 8300 d'une capacité de 1,6 Tb et enfin le 8500 qui supporte 3,2 Tb. Tous ces équipements s'adressent soit au coeur de réseaux ou à l'agrégation de réseaux métropolitains (8200 et 8300), soit au backbone (grande architecture des opérateurs pour le 8500).

Jia Ying Wang souligne que cette série répond « à des problématiques de réduction de consommation d'énergie estimée à 40%, les clients sont devenus très attentifs sur ces économies ». Intégrant l'ensemble des standards ODU 0/1/2/3 et flex, une commutation intelligente (en gérant toutes les couches du niveau transport à la commutation) pour gérer le multiplexage de plus en plus compliqué, ces différents produits s'adaptent facilement aux montées en charge du trafic.

Passer au 100 Gbit/s et après ?


Face à ces pics inéluctables, renforcés par l'expansion de la data mobile, les différents acteurs de l'optique s'interrogent sur la capacité de transmission des données. Il y a quelques années, le Gbit/s était devenu une étape obligatoire pour répondre à cette demande. Puis est arrivé le 10 Gbit/s qui s'est imposé progressivement. Aujourd'hui, la machine s'emballe comme l'a expliqué John d'Ambrosia, président du groupe de travail sur la norme 802.3ba à l'IEEE (norme en cours de développement et appartenant au groupe de normes 802.3 (Ethernet). Celle-ci spécifie la couche PHY et MAC pour des débits allant jusqu'à 40 Gbits/s sur paires torsadées ou 100 Gbits/s sur fibre optique) « quand nous avons commencé à travailler en 2007 sur le 40 et 100 Gbit/s, il n'y avait pas Facebook et ses 450 millions de personnes qui s'échangent des photos et des vidéos ».

[[page]]

L'organisme travaille donc pour livrer une standardisation la plus efficace possible (fabrication des modules 4x 25 Gbit/s Ethernet plutôt que 10 x 10 Gbit/s, amélioration de la consommation électrique, augmentation des distances pour le signal en fonction du câblage supporté).

A la question est-ce que la demande est là pour cette connectivité, Jia Ying Wang reste philosophe « aujourd'hui nos clients nous demandent d'aller vers le 40 Gbit/s Ethernet, mais nous sommes prêts à les accompagner vers plus de débit ». Les autres équipementiers interrogés sur le salon partagent sensiblement ce point de vue et propose tous des produits adéquats. Ainsi Alcatel-Lucent montrait son commutateur optique PSS 1830 capable de gérer le 100 Gbit/s sur une seule longueur d'onde. Idem du côté d'Infinera qui vient de démontrer avec l'opérateur nippon NTT une transmission en 100 Gbit/s via une plate-forme DTN de l'équipementier.

John d'Ambrosia a rappelé qu'il fallait se pencher sur la question du futur avec l'arrivée de très haut débit mobile, la 4G, sans toutefois prononcer le terme Terabit/s Ethernet, que d'aucun envisage pour 2015, c'est-à-dire demain.

(...)

(16/06/2010 10:11:22)

Le support gratuit d'EC2 dénoncé par une étude IBM/Wisconsin-Madison university

Quand on utilise le cloud, si l'on veut un support de qualité et un service technique rapide et performant, la solution la moins chère n'est pas le choix le plus pertinent. Cette évidence est parfaitement illustrée par une étude menée par des chercheurs américains de l'Université du Wisconsin-Madison et d'IBM Research, qui se sont penchés sur le cas du service Amazon Elastic Compute Cloud (EC2).
Amazon offre des packages premiums payants. Cependant beaucoup de clients optent pour les supports techniques gratuits sur les forums. Les chercheurs soulignent que connectivité, gestion de l'image virtuelle et performances sont des problèmes communs à tous les utilisateurs de la solution EC2 d'Amazon. Or, leur résolution est souvent vécue comme un chemin de croix.

Les nouvelles fonctionnalités multiplient les problèmes

Ainsi, selon l'étude réalisée par ces chercheurs, les administrateurs des forums du support technique d'Amazon répondent aux posts au bout de seulement 10 à 12 heures. Pire : la résolution effective des problèmes peut souvent prendre des jours. Titré  "A First Look at Problems in the Cloud", le compte rendu de cette étude sera prochainement présenté à la conférence Usenix de Boston. Il repose sur une analyse de 9575 messages postés entre août 2006 et décembre 2009 sur les forums du support technique d'Amazon. Durant ces trois années, 60 % des problèmes ont été résolus en moins de 9 heures par les 166 administrateurs participants, même si ce temps s'est parfois allongé à une vingtaine d'heures. La plupart des problèmes ont été résolus par seulement dix de ces administrateurs.

D'autre part, l'étude a montré que le nombre de problèmes augmente significativement quand Amazon sort de nouvelles fonctionnalités. « A titre d'exemple, une augmentation des problèmes d'infrastructure virtuelle a été observée durant le quatrième trimestre 2008, au moment même où Amazon a lancé un service de stockage, nommé Elastic Block Store », explique l'auteur.

[[page]]

Cependant cette étude est à lire avec précaution puisque les auteurs se sont simplement cantonnés à l'offre de support technique gratuite et non pas à celle tarifée par Amazon de 100 à 400 $ par mois. Cette offre, bien plus complète, permet une prise en compte au cas par cas, ce qui diminue de façon conséquente les délais de résolution. Malgré tout, les auteurs justifient leur périmètre par le fait que l'étude met en lumière les problèmes les plus communément retrouvés par l'utilisateur typique de Cloud Computing.

L'auteur du compte-rendu conclut ainsi : « Pour offrir des supports plus efficaces, les Cloud devraient développer des outils permettant de gérer les mises à jour ou nouvelles fonctionnalités, d'automatiser les taches opérateurs et de fournir une solution permettant la gestion et le transfert des données entre l'opérateur et le client. »

Crédits photo : D.R. (...)

< Les 10 documents précédentsLes 10 documents suivants >