Flux RSS
Cloud computing

904 documents trouvés, affichage des résultats 31 à 40.
< Les 10 documents précédents | Les 10 documents suivants > |
(15/02/2012 17:06:27)
Avec EMC et VMware, Atos crée Canopy une société dédiée au cloud
Thierry Breton, PDG d'Atos et Joe Tucci, PDG d'EMC ont tenu conférence commune pour présenter une alliance dans le domaine du cloud. La SSII a annoncé la création d'une société baptisée Canopy pour proposer des offres et des services clouds. Pour Thierry Breton, « Canopy va adresser 4 axes, une offre de consulting, la création d'un store pour les applications d'entreprise, une offre de PaaS pour les tests et les développements et enfin une solution de cloud privé ». Sur les deux derniers points, Canopy s'appuiera sur la solution Vblock de l'alliance VCE (VMware, Cisco, EMC).
En ce qui concerne la boutique d'applications d'entreprises, elle sera disponible à partir du mois d'avril et sera étoffée jusqu'à la fin de l'année. Le magasin applicatif sera segmenté verticalement, secteur public, santé, finances, mais aussi horizontalement, ERP, CRM, big data analytics. Thierry Breton ouvre donc la porte à tous les éditeurs qui souhaitent être référencés. L'ensemble des briques formant Canopy devront être finalisées avant la fin de l'année.
Une réponse concurrente à Andromède et au projet cloud de Dassault Systèmes
Atos sera l'actionnaire majoritaire, mais EMC et VMware devraient participer financièrement à la création de la nouvelle société. Joe Tucci n'a pas voulu donner les détails de sa contribution. Quelques dizaines de millions d'euros sont prévus au démarrage de Canopy, dont le siège sera basé en Europe et elle comprendra dans un premier temps une centaine de consultants et d'ingénieurs. Le dirigeant de Canopy sera nommé par Atos.
Cette annonce intervient en plein débat sur la création d'un cloud souverain français. Le projet Andromède a perdu un de ses membres, Dassault Systèmes, qui planche sur un projet concurrent avec Vivendi/SFR. Atos, un moment pressenti pour rejoindre le projet Andromède, a finalement décidé de prendre une autre voie. A la question légitime de savoir si la présence de deux compagnies américaines dans l'accord ne risquait pas de poser des problèmes, Thierry Breton a indiqué que « Canopy utilisera les différents datacenters d'Atos à travers le monde et elle respectera les réglementations sur la protection et la localisation des données ».
Avec Crystal Forest, Intel améliore la performance réseau des datacenters
Intel a présenté un chipset baptisé Crystal Forest pour améliorer le traitement des données au sein des datacenters. « Crystal Forest est composé d'un hardware spécifique, lui-même doté de fonctionnalités logicielles qui pourraient accélérer le traitement des données sur le réseau, » a déclaré Steve Price, directeur du marketing de la division Communications Infrastructure d'Intel. Ce chipset pourrait permettre une agrégation plus rapide des données circulant entre les serveurs dans les centres de calcul sans nuire aux performances ou à la sécurité.
Avec Crystal Forest, Intel espère s'introduire sur le marché des processeurs dédiés aux réseaux et rivaliser avec des entreprises comme Cavium, AppliedMicro et Tilera. Intel avait déjà vendu des processeurs réseaux à base d'ARM par le biais de sa division communications, cédée à Marvell en 2006 pour 600 millions de dollars. « Les centres de calcul hébergeant des services cloud traitent un grand nombre de transactions et les processeurs réseaux peuvent permettre de rassembler les données plus rapidement et donc de retourner plus vite des résultats aux utilisateurs, » a déclaré Nathan Brookwood, analyste principal chez Insight 64. « Le fondeur essaye de palier aux lacunes de la pile technologique des datacenters, et ce chipset pourrait être l'occasion pour Intel de coupler l'élément réseau avec ses microprocesseurs et ses composants, » a ajouté l'analyste.
« Crystal Forest pourrait aussi être une alternative au processeur en silicium classique utilisé actuellement dans les serveurs pour gérer des tâches réseaux complexes, » a ajouté Nathan Brookwood. « Intel cherche toujours à intégrer plus de composants au niveau de la puce équipant les serveurs et Crystal Forest pourrait s'avérer être un produit à forte valeur ajoutée pour l'entreprise, » a encore déclaré l'analyste.
Les détails de Crystal Forest
« Le chipset d'Intel peut gérer jusqu'à 160 millions de paquets par seconde sur une plate-forme serveur bi-processeur, » a précisé Steve Price. Avec Crystal Forest, l'entreprise américaine vise notamment les réseaux 3G et 4G et les vendeurs de solutions de sécurité. « Comparé à des processeurs réseaux dédiés, Crystal Forest est très concurrentiel, » a estimé le directeur marketing.
La plateforme inclut un processeur basé sur la microarchitecture Sandy Bridge, un système I/O, une interface Ethernet et un hardware appelé QuickAssist qui accélère le chiffrement, le traitement et l'analyse approfondie des paquets. « QuickAssist est dérivé d'une technologie logicielle qui offre des fonctionnalités similaires, » a précisé Steve Price. Intel a ajouté aussi un ensemble de bibliothèques logicielles qui tirent profit des jeux d'instruction Intel conçus pour accélérer le traitement du flux des données sur le réseau. Crystal Forest succède à la puce Xeon Jasper Forest. Celle-ci intégrait un hub I/O et a été adoptée dans des systèmes de stockage et des appliances serveurs. En plus d'être un processeur réseau, le chipset peut trouver des applications plus générales, dans le domaine du stockage et de la sécurité. Elle sera disponible d'ici la fin de l'année.
Au mois de juillet dernier, Intel a conclu un accord pour racheter l'entreprise réseaux Fulcrum Microsystems spécialisée dans les technologies de processeurs optimisés pour les réseaux 10 et 40 Gbits Ethernet. « Intel prévoit d'intégrer les commutateurs Fulcrum avec les chipsets Crystal Forest au niveau du rack, » a annoncé Steve Price. « Des entreprises comme Cisco et Juniper proposent des puces personnalisées conçues pour traiter des débits de données extrêmement élevés, » a déclaré l'analyste d'Insight 64. Selon Nathan Brookwook, « Intel serait gagnant si l'une de ces grosses entreprises réseaux achetait sa technologie. » Mais, toujours selon l'analyste, « par rapport à l'activité principale du fondeur, celle concernant les processeurs réseaux restera marginale. »
Forces et faiblesses des PME face au cloud selon Acronis
Principale conclusion de l'étude, la virtualisation des serveurs se répand plus rapidement dans les PME que dans les grands comptes. Le Gartner parlait de 14% de hausse de cette virtualisation en 2012, Acronis et Ponemon parlent de 21% pour les PME. Mais, cette virtualisation est plus faible qu'espérée selon l'étude. 33% des parcs devaient être virtualisés en 2011, c'est tout juste 24% selon Ponemon, ce sera 29% en 2012.
Cette virtualisation des serveurs présente donc des possibilités de croissance importantes. D'ailleurs, 38% des entreprises interrogées devraient faire cette transformation en 2012. Elles le font selon trois critères principaux : améliorer leur efficacité pour 24% d'entre elles, rendre plus flexibles et plus rapides les déploiements dans 20% des cas, réduire les coûts à 18%.
Cette progression de la virtualisation des serveurs ne correspond pas automatiquement à une meilleure protection des données, c'est l'autre grande conclusion. Le tiers des entreprises interrogées n'effectuent pas de sauvegarde de leurs serveurs virtuels aussi fréquemment que de leurs serveurs physiques. Moins d'un tiers, 27%, effectuent une sauvegarde quotidienne, 24% hebdomadaire, 26% mensuelle. Dans 13% des cas, cette sauvegarde est qualifiée d'irrégulière. La France fait partie des mauvais élèves.
Une entreprise sur quatre va migrer
On retrouve ce type de résultats contradictoires tout au long de l'étude. Par exemple, sur le cloud en général. 83% des responsables interrogés expliquent avoir déjà mis en oeuvre une infrastructure basée sur une forme de cloud, en croissance de 13% par rapport à l'an passé. Toutefois, le cloud ne représente que 19% de leur infrastructure. En 2010, remarque l'étude, 30% des entreprises devaient avoir une infra en cloud dans les douze mois suivants, on en est loin. Une entreprise sur quatre, 26%, envisage d'y passer en 2012. Le retard entre la prévision et la réalité sera-t-il comblé cette année ?
Le chemin est aride. Plusieurs raisons l'expliquent. Les entreprises éprouvent un manque de confiance envers les fournisseurs du cloud, elles sont 25% en Suède, 23% en Italie et en Norvège, 19% en France, et expliquent ainsi leur absence de migration.
L'étude se concentre également à plusieurs reprises sur les solutions de sauvegarde et de PRA. Une PME produit chaque année 40 To de données nouvelles. Comment maintenir l'accessibilité à ces données, leur sécurité, leur protection ? L'étude a posé 11 questions aux entreprises sur leurs capacités et leurs pratiques en matière de sauvegarde et de reprise d'activité. Un tiers des PME sont encore sous équipées en matière de sauvegarde et de PRA. Et, chez celles qui sont équipées, un tiers estiment qu'elles subiront une interruption d'activité en cas de problème.
Les données virtuelles en danger
Trois domaines d'amélioration ressortent plus particulièrement : l'insuffisance de la documentation sur les procédures et politiques de sauvegarde, la fréquence des contrôles et des procédures en place, le manque de personnel qualifié (un problème récurrent). Plus grave, le soutien des dirigeants d'entreprise s'effrite, 47% des responsables informatiques interrogés en sont certains. Et pour cause : les budgets n'évoluent pas d'une année sur l'autre. 67% des personnes interrogées ne dépensent que 10% de leur budget sur ces opérations de sauvegarde et de PRA.
La France note l'étude semble toutefois retrouver de la confiance dans ses politiques de sauvegarde, surtout sur deux points : la taille et l'efficacité des équipes dédies, la documentation relative aux procédures de sauvegarde et aux PRA.
(*) Etude nommée Global Disaster Recovery », menée auprès de 6 000 entreprises (deux fois plus que l'an passé) de 13 pays : Allemagne, Arabie Saoudite, Australie, Brésil, Chine, Etats-Unis, France, Hong-Kong, Inde, Italie, Japon, Norvège, Pays-B as, Royaume-Uni, Russie, Singapour, Suède, Suisse.
(...)
Citrix optimise CloudStack pour XenServer 6
Le spécialiste des solutions de virtualisation a lancé la version 3 de CloudStack. Il s'agit d'une plateforme Open Source de conception, gestion et de mise à disposition de services clouds que Citrix a acquis lors du rachat de Cloud.com. Elle se définit comme multi-hyperviseur (KVM, VMware, Oracle VM) , mais cette version a été optimisée pour XenServer 6. CloudStack 3 assure aussi une meilleure intégration des appliances de NetScaler pour la partie réseau, mais également avec les équipements F5, Cisco et Juniper, indique Citrix.
Un catalogue de services réseaux intégrés
CloudStack donne aux utilisateurs les moyens de créer des services réseaux dans différents environnements clouds, avec une allocation dynamique des ressources réseaux sans avoir besoin de paramétrer les équipements. Ainsi, la plate-forme pourra, par exemple, changer les règles d'équilibrage de charge ou lancer de nouvelles instances de machines virtuelles dans un cloud multitenant. CloudStack annonce qu'il a fédéré une cinquantaine de fournisseurs sur la création d'un catalogue de services réseaux intégrés. CloudStack prend en charge aussi la technologie de stockage d'objets, Swift, d'OpenStack pour gérer les données statiques qui sont stockées sur le long terme.
Enfin, l'interface utilisateur a été revue pour la rendre plus accessible aux utilisateurs moins aguerris sur le plan technique.
Les prochaines offres clouds de Nerim ouvertes aux partenaires
Les ventes en indirect représentent actuellement un peu plus de 50% des ventes de l'opérateur télécoms Nerim. Elles concernent plusieurs offres : l'ensemble des connexions Internet, les offres d'hébergement, la ToIP en mode courtage, une partie des offres de sécurité réseau. Ne sont pas concernées, les offres en téléphonie. En revanche, l'opérateur qui prépare des offres de cloud computing va les rendre accessibles à ses partenaires.
Ceux-ci sont au nombre de 350 actifs, donc ayant réalisé au moins une vente dans le mois. Nerim en recrute de nouveaux pour compléter sa couverture régionale, essentiellement dans le grand Ouest, le Nord et l'Est. « On veut des partenaires qui souhaitent travailler dans la durée, nous les formons, via Nerim Université » note Cyril de Metz, directeur général, « nous leur proposons les services d'un opérateur reconnu pour sa qualité de service et ses compétences en sécurité ».
L'opérateur prépare ses offres de cloud computing, avec des capacités d'hébergement dans deux datacenters : Equinix à Saint Denis et NetCenter à Courbevoie ; deux centres redondants, reliés en fibre noire par Nerim. L'opérateur va proposer en vente directe ou en vente indirecte des capacités d'hébergement et des formules de datacenter virtuel. « Les partenaires pourront présenter des services d'infrastructure ou bien intégrer leurs différents soft et se présenter des offres en SaaS », commente Cyril de Metz.
Par ailleurs, Nerim a réalisé un chiffre d'affaires (CA) de 24 millions d'euros (ME) en 2011.
Avec ses serveurs Proliant Gen8, HP pousse l'automatisation
Pour la plénière de sa Global Partner Conference 2012 à Las Vegas, HP a fait dans le local avec un petit show sur scène. Les choses sérieuses n'ont toutefois pas tardé à commencer avec l'arrivée sur scène de Dave Donatelli, patron de l'activité infrastructures (ESSN) chez HP. Après des annonces sur le business avec les partenaires, nous reviendrons sur le sujet dans un article ultérieur, le dirigeant a présenté les serveurs Proliant Gen8 et dressé la feuille de route de l'HP post Apotheker. A savoir une pyramide qui comprend à la base l'infrastructure ("The core"), puis à la strate supérieure la partie logicielle ("Expand the core"), ensuite les services ("Add value to the core") et enfin les solutions ("Make it work"). « C'est le pouvoir de la convergence. Notre but est très ambitieux, il s'agit de transformer l'industrie avec nos solutions serveurs, stockage et réseau pour aller vers le cloud », a indiqué Dave Donatelli. Et cette stratégie porte le nom de projet Voyager.
Dave Donatelli, patron de l'activité infrastructures (ESSN) chez HP
Après le projet Moonshot, dévoilé le 11 octobre 2011, qui visait à améliorer l'efficience énergétique des datacenters avec des solutions innovantes comme des prototypes de serveurs basés sur les plates-formes ARM et Intel Atom, le projet Odyssey, lancé le 22 novembre 2011, qui consistait à gérer comme un seul système des plates-formes animées par Linux, Windows et Unix pour des applications critiques, HP annonce donc Voyager pour redéfinir les attentes et les coûts des plates-formes serveurs. Si le projet Voyager ne concerne aujourd'hui que la plate-forme x86, Dave Donatelli a expliqué lors de la conférence de presse qui a suivi la plénière que le projet sera étendu à Itanium en novembre prochain. John Gromala, responsable marketing chez HP nous a ensuite expliqué que beaucoup d'efforts ont été réalisés pour mener à bout le projet Voyager et qu'il pouvait s'étendre à d'autres infrastructures.
Des serveurs mais pas de détails sur les processeurs
Pour revenir au sujet phare de la journée, le lancement des Proliant Gen8, HP a présenté certaines des innovations de cette plate-forme qui a demandé 2 ans de développement et 300 millions de dollars d'investissement. 900 brevets ont d'ailleurs été déposés pour couvrir ces innovations, notamment un Smart Socket codéveloppé avec Intel. Intel, justement, était le grand absent de cette conférence de presse. Pas un mot n'a en effet prononcé sur les processeurs qui animeront ces Proliant Gen8. Mark Potter, en charge de l'activité serveur chez HP a simplement concédé qu'il y avait des rumeurs de nouveaux processeurs chez Intel. Le fondeur californien n'annoncera ses puces Xeon E5 - le nom qu'il ne fallait pas prononcé lors de cet événement - que début mars. Le 5 mars pour être plus précis selon un confrère d'IDG NS qui a arraché l'information à Santa Clara. Mais la plate-forme Proliant Gen8, qui sera disponible à partir de mars et progressivement étendue dans la gamme au cours de l'année, accueillera également les puces pour serveurs d'AMD.
Une plate-forme majeure pour HP
Beaucoup d'innovations ont été présentées à l'occasion du lancement du Proliant Gen8 qui autoriserait un retour sur investissement sur 5 mois et permettrait de doubler la capacité d'un datacenter selon les dirigeants de HP. Pour expliquer ces deux points, plusieurs éléments sont mis en avant et notamment l'architecture ProActive Insight. Le constructeur de Palo Alto entend bien améliorer l'automatisation des serveurs pour augmenter significativement leur disponibilité. Grâce à l'intelligence logicielle dont sont équipées ces machines, HP indique ramener à 3 secondes l'intégration d'un serveur. Avec l'outil Active Health, pas moins de 1600 paramètres du serveur sont analysés en temps réel pour prévenir les problèmes et les pannes. Et avec Smart Update, le numéro des serveurs indique pouvoir mettre à jour 1000 machines avec un seul clic.
Pour augmenter la performance de ces serveurs, HP mise également sur les SSD comme système cache et le support du PCIe 3 sur les cartes mères. Avec ces deux éléments, HP indique améliorer de 85% le trafic du stockage en entrée/sortie. Enfin, avec une nouvelle architecture pour l'écriture en cache des données sur les SSD, Mark Potter annonce une révolution aussi importante que l'arrivée du Raid en 1989. « Les serveurs et le réseau sont un frein à l'augmentation du stockage. Pour un dollar dépensé en stockage, il est nécessaire d'investir 6 dollars en serveur, en réseau et en administration. (...) Aujourd'hui nous voulons changer ce challenge », nous a indiqué Florian Reithmeier, responsable de l'activité serveurs X86 pour HP Europe.
[[page]]
M Reithmeier définit le projet Voyager comme la fourniture de serveurs en self service. « Nous pensons que nos clients veulent passer plus de temps sur l'innovation et les nouveaux projets et moins sur la gestion de leur informatique. La question aujourd'hui est l'automatisation des Datacenter. Comment gérer, déployer simplement des nouveaux serveurs ». Pour ce faire, HP propose un QRCode avec chacun de ses serveurs Proliant Gen 8. Le scan de ce code avec un simple smartphone permet de transférer toutes les informations vers le système d'administration. Une machine peut ainsi être déployée en 3 secondes sans erreur humaine. Selon M. Reithmeier, « 70% des erreurs dans les datacenters sont dues au personnel. Nous pouvons améliorer ça ». Deux technologies proposaient par HP permettent en effet de réduire ces risques, l'ADM (Advanced Data Memory) et la présence de led sur les disques durs. La première assure l'intégrité des données grâce à des algorithmes maison et la seconde indique si un disque dur ou un SSD peut être débranché. Une manipulation pas si anodine que ça quand un opérateur doit faire face à un rack avec une centaine de disques durs.
Le système de led pour indiquer si un disque travaille encore ou s'il peut être enlevé sans risque de perte de données.
Toujours dans le domaine des centres de calcul, HP introduit un outil baptisé 3D Sea of sensor qui rassemble toutes les informations recueillies par les capteurs matériels et les sondes logicielles pour créer une représentation en 3D du Datacenter. Un bon moyen pour détecter les zones les plus chaudes, contrôler le refroidissement et la consommation électrique, augmenter ou réduire la densité dans une zone ou décider où placer certaines applications critiques. « L'idée est bien de manager plus efficacement son datacenter en apportant de l'intelligence à tous les niveaux » nous a expliqué John Gromala.
Les serveurs Proliant Gen8 sont déjà en test chez certains clients de type early-adopter. HP reviendra en détail sur les configurations techniques et les prix quand les puces Xeon E5 auront été annoncées.
(...)(13/02/2012 17:06:55)UptimeCloud analyse les coûts d'AWS en temps réel
Destiné aux utilisateurs d'AWS, le service de surveillance des coûts UptimeCloud aide à prévoir et gérer sa dépense dans le cloud public d'Amazon. Il devrait intéresser à la fois les nouveaux venus et les habitués d'AWS, estime Nick Johnson, directeur marketing d'Uptime, car la plupart d'entre eux ont, selon lui, du mal à contrôler leurs coûts. Pour illustrer son propos, il cite un utilisateur de la bêta version d'UptimeCloud qui décrit le processus de mise en oeuvre des services cloud par une formule lapidaire : « déployez, priez et payez ».
UptimeCloud présente un tableau de bord où l'on peut voir en temps réel le coût d'utilisation d'AWS et consulter des prévisions de facturation pour l'heure, la journée, la semaine, le mois ou l'année. Le tout s'accompagnant de recommandations sur les moyens de réduire ces coûts. La partie prévisionnelle permet de constituer un budget mensuel et de recevoir une alerte lorsque les coûts vont le dépasser. Lorsque les utilisateurs modifient leur exploitation du cloud, UptimeCloud leur indique l'impact que cela aura sur leurs coûts.
Un service intégré via l'API d'Amazon
Le service permet aussi d'obtenir le détail de l'utilisation du cloud dans l'entreprise. Les clients peuvent voir les coûts par application, par projet, par utilisateur, par localisation, par compte, par instance, etc. Ils peuvent aussi accéder à des prévisions basées sur ces critères. Uptime dit pouvoir offrir des indicateurs plus détaillés que certains concurrents parce qu'il s'intègre avec AWS en utilisant l'interface de programmation d'Amazon. La plupart des services de suivi de coûts rassemblent les données sur les prix en se connectant via les identifiants du client. Mais, outre que cela présente des risques sur le plan de la sécurité, cela ne donne pas au fournisseur de service la profondeur de détail offerte par UptimeCloud, considère Alex Bewley, directeur technique d'Uptime. Par exemple, UptimeCloud peut analyser les variations quotidiennes de consommation et les coûts associés, ce qui peut être utile aux gros consommateurs d'instances ponctuelles d'AWS, tandis que les autres services ne peuvent pas suivre les tendances journalières, d'après le fournisseur.
Il est aussi possible de suivre les utilisateurs d'AWS individuellement et de voir la façon dont ils consomment les ressources, avec un outil de gestion des identités et des accès proposé par Amazon. Les conseils procurés par UptimeCloud sur la réduction des coûts sont surtout basés pour l'instant sur les façons de tirer avantage des options tarifaires d'AWS. Cela n'aidera pas à identifier les ressources sous-utilisées qui pourraient être regroupées pour faire des économies.
Les utilisateurs du service dans sa version bêta auraient estimé qu'ils n'avaient pas besoin de ce niveau de détail pour l'instant, a indiqué Alex Bewley. Uptime prévoit à l'avenir d'ajouter des recommandations sur les instances sous-utilisées, a précisé le directeur technique.
Cloudyn et Cloudability proposent des services
D'autres fournisseurs aident les entreprises à gérer leurs dépenses dans le cloud. Parmi eux, Cloudyn et Cloudability. Le premier a récemment lancé son service pour AWS. Le deuxième permet aussi de poser des alarmes lorsque les clients atteignent certains seuils. Tous deux font des suggestions pour maîtriser les coûts. Amazon lui-même compte proposer à ses utilisateurs des fonctions similaires, mais ce ne serait pas encore une priorité, selon Alex Bewley, d'Uptime. En attendant, Amazon accueille volontiers les fournisseurs tiers proposant ce genre de services. Des factures trop élevées risquent en effet de dissuader les directions des services informatiques de recourir au cloud.
Les entreprises peuvent essayer gratuitement UptimeCloud pendant trente jours. Ensuite, elles paieront le service en fonction du nombre d'instance qu'elles exploitent sur AWS. A partir de 295 dollars par mois de 101 à 250 instances. Le service revient à 1 845 dollars par mois entre 1 001 et 2 500 instances et à 5 945 dollars par mois entre 5 001 et 10 000 instances.
(...)(09/02/2012 15:10:01)
Tech.days 2012 : L'Iéseg a fait le choix de Microsoft Live@edu dans le cloud
Lors des Tech.days, l'Iéseg, une école de commerce et de gestion située à Lille et Paris, a fait part des raisons qui l'ont conduit à déployer la messagerie en mode cloud Live@edu et à utiliser des services de collaboration par l'intermédiaire de la plate-forme Windows Live skyDrive. « Nous devions remplacer l'outil de messagerie de nos 2 700 étudiants », a exposé Cédric Malvache, responsable informatique de l'Iéseg. « L'espace de leurs boîtes mail étant insuffisant, les élèves avaient tendance à délaisser Exchange pour utiliser d'autres outils, En outre, nous souhaitions fournir, aux jeunes et au personnel administratif, des services de collaboration tels qu'une solution de partage de calendrier en ligne qui auparavant faisait défaut. En optant pour une solution cloud, nous sommes passés d'un taux de disponibilité de 96% à 99,98%. De plus, ce choix nous permet de monter automatiquement en version, ce qui n'était pas possible avec l'ancien prestataire. Pour nous connecter sur l'un des services offerts par Live@edu, nous utilisons notre identifiant (live id) qui en réalité est simplement l'adresse mail de l'Iéseg. »
Live@edu est une messagerie électronique qui propose 10 Go d'espace de stockage. Elle inclut différents autres services pour communiquer et travailler avec les enseignants et les étudiants : stockage et partage de documents en ligne, agendas partagés, carnet d'adresses, constitution de groupes, messagerie instantanée et également visioconférence.
Étudiants et enseignants peuvent facilement planifier des rendez-vous en partageant leur agenda avec qui ils veulent. Grâce à la messagerie instantanée intégrée, il est possible de visualiser immédiatement qui est en ligne et de discuter à deux ou en groupe. Les emails peuvent être consultés depuis le logiciel de messagerie habituel, des navigateurs web (Microsoft Internet Explorer, Mozilla Firefox ou Safari), ou des smartphones (dont le BlackBerry et l'iPhone).
Support de Chrome et d'iCal
Les services Outlook Live et Outlook mobile avec Exchange ActiveSync permettent également d'accéder de partout aux emails, calendrier, contacts et tâches.
Les élèves ont également la possibilité de créer des espaces de travail en ligne sur Windows Live Skydrive, un disque dur virtuel de 25 Go par utilisateur protégé par mot de passe. Des Office Web Apps permettent aussi d'élaborer, de visualiser et de modifier en ligne des fichiers Word, Excel, Powerpoint et OneNote. Le service Windows Live Groups aide à réaliser une page personnelle en quelques minutes, incluant blogs d'équipe dans le cadre d'un projet d'études, ou d'une association. Enfin, l'outil Windows Live Mesh 2011 synchronise une partie des fichiers de l'espace de stockage sur des ordinateurs - PC ou Mac - à l'école ou à la maison, ou sur des terminaux mobiles, de manière automatisée.
« Microsoft a fait d'importants efforts sur l'interopérabilité », a souligné Eric Ortiz, spécialiste des solutions Cloud dans l'éducation chez l'éditeur. « Le support de Chrome et des calendriers au format iCal d'Apple est assuré sur Live@edu. La plateforme fonctionne aussi sur des smartphones et également sur des Mac, sachant que ces deniers sont utilisés par 40% d'étudiants de grandes écoles ». Selon lui un établissement scolaire aura tout intérêt à se tourner vers une solution cloud pour se délester de l'investissement matériel. « Dans les grande écoles et les universités, la masse d'individus est comparable à celle d'une multinationale », estime-t-il. Or, il est coûteux de proposer des services qualitatifs à tout le monde. Des services hébergés et gratuits, tel que Live@edu, permettent donc aux établissements publics de mieux maîtriser et d'optimiser la gestion de leur masse salariale. »
(...)
Amazon Web Services baisse les tarifs du stockage sur S3
Les utilisateurs de l'offre de stockage, S3, d'Amazon Web Services vont voir leur facture allégée. Ce service est facturé mensuellement en fonction de la quantité de données stockées. Pour la zone américaine (sauf sur le datacenter de Californie du Nord), européenne et pour Singapour, le tarif demandé passe de 0,14 dollars par Go par mois à 0,125 dollars par Go/mois pour le premier To stocké. Le prix change aussi jusqu'à 49 To de données, le prix au Giga passe de 0,125 dollars à 0,110 dollars par Go/mois. Le stockage de 450 To et 500 To profite également d'une baisse des prix.
Coûts annexes et 762 milliards d'objets stockés sur S3
Cette réduction des coûts est effective depuis le 1er février. On notera qu'au prix du stockage, il faut aussi intégrer les tarifs des demandes et celui du transfert des données. Cette annonce est aussi une réponse à l'étude menée par le Gartner qui indiquait qu'utiliser des outils de BI dans le cloud pouvait se révéler plus cher qu'une solution sur site au bout de 5 ans. Elle intervient aussi alors qu'Amazon a indiqué la semaine dernière que son offre S3 avait stocké 762 milliards d'objets en 2011 contre 262 milliards en 2010.
Eurocloud veut évangéliser sur le cloud
Au deuxième semestre 2012, Eurocloud lancera une campagne pluri-média. « Nous allons évangéliser à grande échelle en menant des actions pour sensibiliser 8 000 revendeurs français au cloud computing » nous explique Pierre-José Billotte, président d'Eurocloud. L'association lance un appel d'offres pour désigner une agence de communication, elle présentera ce projet lors de ses Etats Généraux, le 21 mars prochain. « Le cloud bouge, mais n'est pas encore en phase d'expansion, c'est pourquoi nous devons passer la vitesse supérieure ».
En attendant, Eurocloud a lancé un site Internet presidentielle2012.eurocloud.fr pour sensibiliser les candidats aux élections présidentielles à ses thèmes. Il prépare ses Etats Généraux, 7ème du nom etats-generaux.eurocloud.fr. Cette année, ils quittent la Bourse de commerce pour rejoindre la CCI de Paris, avenue de Friedland, un espace plus grand pour accueillir 12 ateliers et non plus 9. « Nous élargissons notre éco-système d'éditeurs et d'intégrateurs et préparons de nouveaux thèmes d'ateliers », souligne Henry-Michel Rozenblum, délégué général. KPMG parlera par exemple de la valorisation des échanges et un atelier traitera du thème : « le SaaS et les flux critiques de l'entreprise seront-ils compatibles » avec le DSI d'un grand groupe comme témoin.
< Les 10 documents précédents | Les 10 documents suivants > |