Flux RSS

Cloud computing

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

904 documents trouvés, affichage des résultats 731 à 740.

< Les 10 documents précédentsLes 10 documents suivants >


(07/05/2010 17:21:31)

Jusqu'à 12 coeurs pour le prochain Westmere-EX d'Intel ?

Le fondeur de Santa Clara a annoncé que ses prochaines puces Westmere-EX offriront plus de coeurs et des fréquences plus rapides. Gravés en 32 nm, contre 45 pour les Nehalem-EX, les processeurs Westmere-EX cibleront les serveurs à quatre sockets et plus, a déclaré Stephen Smith, vice-président chez Intel, lors d'un discours retransmis sur le web.

Introduites en mars dernier, les puces Nehalem-EX, disponibles sous les appellations commerciales Xeon 7500 et 6500, sont destinées aux serveurs haut de gamme qui nécessitent performances et temps de disponibilité élevé. Pour répondre ces besoins, Intel a intégré à ses puces des fonctions de correction d'erreur et des facilités de maintenance (RAS). Augmenter le nombre de coeurs est aujourd'hui une des solutions retenues par la société pour améliorer les performances tout en essayer de réduire la consommation des puces. En mars dernier, Intel avait également dévoilé sa plate-forme Westmere-MP (Xeon 5600), gravée en 32 nm, et offrant jusqu'à six coeurs par socket. Le fondeur annonçait des performances en hausse de 60% par rapport à la génération précédente.

[[page]]

«Nous avons toujours dû faire des compromis entre performances brutes et fonctionnalités, en poussant dans un sens ou dans l'autre mais ici nous avons choisi de promouvoir les deux", a expliqué Stephen Smith. Ce dernier a toutefois refusé de révéler la vitesse d'horloge et le nombre de coeurs sur les puces Westmere-EX. La société ne précise pas non plus le trimestre où seront introduits ces processeurs. Le dirigeant indique simplement qu'un rafraîchissement de la gamme processeurs pour serveurs sera réalisé en « milieu de cycle », et qu'elle offrirait une compatibilité descendante pour protéger les investissements des fabricants de systèmes Nehalem-EX. « Nous venons juste de lancer les Nehalem-EX (...) Ces plates-formes ont généralement une durée de vie (...) de deux ans et plus. Le développement a bien avancé et nous sommes confiants. Ce produit va nous donner un coup de pouce au niveau des performances. Et pour préserver les plates-formes et les investissements de nos partenaires OEM, ces puces iront dans les mêmes sockets ».

Plus de coeurs pour gagner en performances

Rappelons qu'Intel a apporté 50 % de coeurs supplémentaires avec ses Westmere-EP, et pourrait faire de même avec la mise à jour Westmere-EX, a souligné Nathan Brookwood, analyste chez Insight 64. Si les puces Nehalem-EX offrent jusqu'à huit coeurs, Intel pourrait monter à 12 avec les Westmere-EX, avance l'analyste. Il ajoute que cela apportera un gain significatif de performances sur les serveurs haut de gamme. Les centres de calcul seraient en mesure de supporter une plus grande charge de travail sans augmenter le nombre de machines. Ces puces contribueraient également à la réduction de la consommation électrique tout en consolidant les serveurs dans des salles plus petites. Westmere-EX permettra également de contrer les prochaines offres d'AMD. « Ce qui est intéressant, c'est qu'AMD a déjà un processeur 12 coeurs, le Magny-Cours, et qu'ils sortiront l'année prochaine un puce 16 coeurs gravée en 32 nanomètres », a précisé Nathan Brookwood. Connue sous le nom de code Interlagos, cette plate-forme reposera sur une microarchitecture baptisée Bulldozer.

(...)

(07/05/2010 15:14:41)

La fiabilité et la confidentialité des Google Apps une nouvelle fois remise en cause

Après Yale qui a renoncé le mois dernier à son projet de messagerie Gmail, c'est au tour de l'université de Californie de Davis d'abandonner le webmail de Google utilisé par près de 30 000 personnes sur le campus, essentiellement des professeurs et des salariés des services généraux. Selon le site en ligne Mashable, la raison invoquée repose sans grande surprise sur les problèmes de confidentialités, aggravés par l'arrivée du service collaboratif Buzz. Les membres de la faculté tiennent en effet à conserver un caractère privé à leurs échanges professionnels. Une autre plate-forme hébergée sera utilisée par l'université de Californie pour fournir un service totalement sécurisé à ses employés.

Ces annonces surviennent la semaine où le service calendrier de Google a connu deux pannes majeures. Hier jeudi à 11h30 sur la côte Est des États-Unis, les comptes des utilisateurs étaient en effet devenus inaccessibles selon les informations du tableau de bord de Google Apps. Les Internautes ont dû attendre une heure avant un retour à la normale. Le mercredi 28 avril, Google Agenda a également connu une défaillance et des problèmes de performances qui ont affecté certains utilisateurs pendant environ une heure, après "un nombre inhabituellement élevé" de demandes de synchronisation de la plate-forme mobile Android, selon la firme de Mountain View.

Agenda est proposé comme une application gratuite et autonome pour un usage individuel, et aussi dans le cadre de l'offre Google Apps comme suite bureautique et collaborative pour les entreprises (50 $ par an et par utilisateur environ). La fiabilité des applications hébergées comme Google Agenda est un des points mis en avant par les prometteurs du cloud computing pour encourager les entreprises  à simplifier et à réduire les coûts de fonctionnement de leur systèmes d'informations. Reste que les mauvaises surprises ne sont pas absentes et les pannes de messagerie ou de calendrier partagé immédiatement visibles par les utilisateurs.

(...)

(07/05/2010 12:37:36)

Spring Source, filiale de VMware acquiert Gemstone

Avec cette opération, l'éditeur de solutions de virtualisation, filiale d'EMC, obtient des technologies et une expertise sur un goulet d'étranglement du cloud computing, l'évolutivité des bases de données. « Gemstone devrait régler une part importante de ce problème. Si vous élaborez une application, qui nécessite des ressources au sein de l'entreprise ou une migration vers le cloud, elle sera amenée à évoluer sans nécessairement changer votre architecture » souligne Rod Johnson, directeur général de Spring Source.

Le produit phare de Gemstone se nomme GemFire Entreprise, un gestionnaire de cache des bases de données en mémoire pour les plate-formes distribuées. Cette technologie stocke entièrement une base au sein d'une mémoire dédiée, éliminant ou en retardant les procédures chronophages comme l'écriture ou la lecture de la base sur un disque. « Concrètement, le logiciel va pouvoir travailler sur la donnée au niveau de la couche middleware et interagir en temps réel avec des applications Java. A la fin de la journée, la donnée traitée est alors replacée dans le circuit de la base ou alors enregistrée de manière asynchrone » explique Richard Lamb, président de Gemstone.

[[page]]

Cette technologie est souvent utilisée par les communautés financières, qui utilisent des systèmes de grid computing. Le département de la défense américaine utilise également cette solution pour les commandes distribuées et les systèmes de contrôle. Au total, Gemstone apporte ses offres à 200 entreprises.

Faire sauter les verrous du cloud


Sur le marché des mémoires primaires des bases de données, plusieurs fournisseurs sont en compétition, comme Oracle avec Times Ten In-Memory Databade 11G. L'avantage de Gemstone est de fonctionner sur une architecture distribuée, plutôt qu'un dans  une structure symétrique multiprocesseurs, explique Richard Lamb. Cette approche facilite le déploiement d'applications sur les datacenters distants. En complément de cette annonce, VMware semble s'intéresser à une base de donnée, connue, sous le nom de code NoSQL, pour les porter dans le cloud. En mars dernier, il a embauché le développeur en chef de Redis Open Source, spécialiste en mémoire primaire de base de données non relationnelle. Pour autant, Paul Maritz, CEO de VMware a expliqué lors de la présentation des résultats « nous n'essayons pas d'entrer sur le marché de la base de données, nous cherchons simplement d'accompagner nos clients qui portent leurs applications dans le cloud, public ou privé ».

Gemstone est basée à Beaverton dans l'Oregon et comprend 100 salariés. Elle devrait être intégrée dans SpringSource et garder son nom. L'acquéreur s'est engagé à poursuivre les fonctions de supports sur les autres produits de Gemstone. Par contre, les conditions financières n'ont pas été dévoilées.

(...)

(06/05/2010 10:39:42)

Le Syntec pédagogue sur le cloud

Pour Jean Mounet, président du Syntec informatique, le cloud n'est pas une révolution, mais une évolution de l'usage de l'informatique. Pour lui, l'avènement de ce mode de consommation va rendre « l'accès à l'informatique très similaire à celui de l'électricité, on se branche sur une prise informatique pour disposer d'applications, de puissance de calcul, de stockage, etc. ».  Pour accompagner les membres du Syntec vers le cloud, la fédération a publié un livre blanc sur le sujet. Cet ouvrage très modeste se veut avant tout pédagogique en définissant les différents types de cloud et à quelles applications elles s'adressent. Pour renforcer le caractère didactique, plusieurs cas clients donnent une vision plus pragmatique du cloud. Sur la partie technique, le Syntec proposera dans la prochaine édition du livre blanc un volet plus orienté vers les informaticiens.

Des règles juridiques en suspens


Nonobstant les bénéfices et les avantages d'avancer progressivement vers le cloud pour les entreprises, le Syntec modère les enthousiasmes sur certains points et notamment juridiques. Des interrogations subsistent par exemple sur l'application de la loi du pays où sont géolocalisées les données.  Cela peut poser quelques difficultés par exemple si les informations sont stockées dans un pays avec des règles de confidentialités différentes du pays de résidence de l'entreprise. Un autre aspect a été souligné par ce livre blanc, la réversibilité des contrats signés entre les entreprises et les fournisseurs de services cloud. Peut-on déplacer ses VM d'un cloud à un autre (interopérabilité, standardisation), quel est le statut des données stockées (destruction, durée de conservation, portabilité) ? autant de questions qui demeurent aujourd'hui sans véritables réponses.

Le cloud va aussi bouleverser l'environnement social de l'entreprise où les informaticiens vont être déchargés des tâches de gestion quotidienne des applications, des environnements et des infrastructures. Leur métier va évoluer vers des coeurs de métiers, comme par exemple le développement et le test d'applications, mais aussi vers un aspect commercial pour assurer l'interface avec les fournisseurs de service cloud.

Enfin, la fédération souligne les différents programmes européens et nationaux à l'encontre du cloud. Pour mémoire, le grand emprunt comprend un volet cloud avec une enveloppe de 1 milliards d'euros.

(...)

(06/05/2010 09:07:36)

1ère réunion du groupe utilisateurs français d'Amazon Web Services (MAJ)

A l'occasion de la première réunion de l'User Group France Amazon Web Services le 3 mai dernier, des entreprises telles que Voyages-sncf.com ou Maporama ont fait part de leur retour d'expérience sur l'adoption du cloud computing. Le bilan des utilisateurs d'AWS est globalement positif. Sa rapidité de prise en main, sa souplesse d'utilisation, son évolutivité et son niveau de sécurité sont cités comme des atouts mais avec des bémols selon les intervenants. Nombre d'entreprises ayant des sites en ligne se tournent vers le cloud  pour faire face à une forte croissance de leur trafic ou pour des tests de charge.

Cédric Despres, responsable édition logicielle chez Voyages-sncf.com, a ainsi expliqué que le site de commerce électronique français doit faire face à des contraintes de disponibilité, sachant que chaque jour 300 000 ventes sont réalisées. Initialement, la société travaillait avec l'hébergeur SNCF, sa maison mère qui dispose de ses propres salles de serveurs, mais pour gérer des projets de recherche et développement, l'entreprise a choisi, en 2009, de miser sur Amazon Web Services.

Pour autant, l'entreprise n'envisage pas à ce jour de généraliser le cloud pour un usage en production. Actuellement, ce type de services ne concerne que la partie test des applications car même si la confidentialité des données ne pose aucun problème, selon Cédric Despres, « il est difficile de convaincre notre maison mère car avec le cloud on ne contrôle rien, on ne peut pas appuyer sur le bouton off ». Il précise qu'il y aura néanmoins une phase intermédiaire durant laquelle ils passeront par la virtualisation de leurs applications sur les machines existantes.

Photo : Cédric Despres, Responsable Edition Logicielle chez Voyages-sncf.com


[[page]]


Aujourd'hui, après un an d'utilisation, Cédric Despres dresse un bilan plutôt positif. Il insiste sur la « souplesse de prise en main », étant donné qu'il n'a fallu qu'une semaine pour le déployer. Il ajoute que « c'est du virtuel, il n'y a pas de fils à connecter, nous avons juste à choisir sur Internet les machines que nous voulons créer ». Il pointe un autre atout pour les entreprises qui ne seraient pas certaines de se lancer totalement dans le cloud. Si elles décident d'abandonner après la phase de tests, elles disposent malgré tout des scripts et du détail de fonctionnement et d'informations sur la performance des machines au sein de cet environnement. De quoi en tirer des enseignements pour optimiser leurs coûts.

 

Dans le cas du site Voyages-sncf.com, selon Cédric Despres il y a eu « de meilleurs résultats de performance sur Amazon Web Services que sur l'hébergement traditionnel, ce qui a permis d'améliorer la rapidité de notre hébergement traditionnel ». Néanmoins, Cédric Despres évoque plusieurs inconvénients, à savoir les écarts de performances d'une plate-forme à l'autre en raison de l'utilisation de CPU différents d'une période à l'autre au sein du Cloud, ainsi qu'un manque de visibilité sur les performances I/O des disques et du réseau.


Photo : Cédric Despres, Responsable Edition Logicielle chez Voyages-sncf.com


[[page]]


Pour Eudes du Rivau, CTO (Chief Technology Officer) chez Maporama, le bilan est également positif. Il précise qu'« une fois qu'on a découvert Amazon on est à peu près convaincu. » La société a choisi le cloud en réponse à un besoin de croissance. Cette plate-forme a effectivement l'avantage de permettre d'éviter d'investir dans des serveurs, coûteux à l'achat. Grâce à AWS, le processus de sauvegarde et de restauration est facilité et plus robuste. Il ajoute : « de plus, nous n'avons plus besoin de nous soucier du firewall car tout est confié à AWS ». Le responsable technique apprécie particulièrement la flexibilité du cloud lorsque l'entreprise a besoin de louer de nouvelles machines et reconnaît la fiabilité du SaaS que propose AWS. Il souligne enfin que « grâce à ce projet, il maîtrise beaucoup mieux son budget de fonctionnement. » Pour les aspects négatifs, le CTO de Maporama témoigne qu'AWS n'est pas tout-à-fait au point pour de larges bases de données et ne propose pas un outil de supervision complet qui satisfasse à leurs besoins. Maporama utilise donc son propre outil en parallèle de la solution d'AWS.

IT4Control, Blogbang, Silentale, Cafe.com et IG technologie étaient également présents lors de cette conférence. Leur point de vue sur la solution SaaS d'Amazon Web Services rejoint les témoignages de Voyages-sncf.com et de Maporama.


(...)

(05/05/2010 10:14:09)

Observatoire du cloud : CA et IDC scannent la maturité des entreprises

« Après l'évangélisation vient le temps de la mesure régulière de la maturité des entreprises » prévient François Trouillet, directeur marketing Europe du Sud de l'éditeur CA. Dans cette optique, la « cloud academy » organisée deux fois par an par CA et divers partenaires (comme le cabinet Revevol) se dote d'un nouvel outil : un « observatoire du Cloud » réalisé par le cabinet d'études IDC. Publié le même jour que l'étude de Markess, cette synthèse qui arrive après celle réalisée par PAC pour le compte de VMware, Intel et EMC et juste avant le livre blanc du Syntec sur la question (à l'occasion du salon Datacenter Cloud Computing au Cnit les 5 et 6 mai 210). Les nuages sont vraiment dans l'air du temps.

L'adoption du modèle du cloud rentre ainsi dans la norme des autres modèles. La réduction des coûts était la justification quasi-unique du passage au cloud mais retrouve désormais une place plus ordinaire parmi les motivations diverses, derrière, par exemple, l'efficacité du SI, même si les DG sont encore axés sur les coûts avant tout. Amélioration de la réactivité, optimisation de l'infrastructure et du portefeuille applicatif, bref l'agilité, sont des priorités de la DSI quand elle choisit le cloud. Innovation et Green-IT sont, par contre, jugés très secondaires.

[[page]]

L'infrastructure, de plus en plus complexe, est également de plus en plus externalisée, d'abord pour déléguer cette complexité et l'hétérogénéité induite. L'absence de recours à des prestataires ne concerne désormais plus que 30% des entreprises et continue de chuter même si la délégation totale à des prestataires est encore très marginale (7% seulement).

Le cloud est jugé connu dans ses principes généraux mais les entreprises s'intéressent et connaissent prioritairement le SaaS (27% ont mis en oeuvre et seul un tiers ne s'y intéresse pas encore). PaaS et IaaS n'intéressent pas encore les deux tiers des entreprises et quasiment aucune n'en ont mis en oeuvre. La problématique de la sécurité au sens strict et technique est en régression au profit de la gestion de la confidentialité et des droits d'accès. Même si 55% des entreprises ne peuvent pas envisager autre chose qu'un cloud privé, le principe de « mettre dans les nuages » des éléments du SI n'est plus une hérésie.

Illustration : crédits D.R. (...)

(05/05/2010 09:43:55)

Le cloud et le SaaS étendent leur périmètre applicatif

Le cabinet Markess dévoile - le même jour que CA et IDC - une étude sur le SaaS (software as a service), une notion désormais englobée, avec ses consoeurs IaaS (infrastructure) et PaaS (platform), dans celle du cloud computing. L'étude est basée sur 330 interviews menées en ligne au cours des deux derniers mois et complétée par les études menées par le cabinet en parallèle (stockage, sauvegarde, archivage ...). Rappelons également que PAC avait présenté une synthèse fort intéressante sur le sujet le 8 avril dernier et que le Syntec dévoilera son livre blanc sur la question à l'occasion du salon Datacenter Cloud Computing (au Cnit les 5 et 6 ami 2010)

Le premier enseignement est d'ordre quantitatif.  Le marché des services concernés par le cloud computing se montait à 1,200 milliard d'euros en 2008 en France, il va atteindre 1,860 milliard d'euros  en 2010 et passer à 2,730 en 2012. A l'intérieur de ce marché, c'est le SaaS qui progresse le plus.  Et à l'intérieur du SaaS, on retrouve d'année en année (de 2008 à 2010) le même groupe de tête, celui du collaboratif : messagerie, agenda partagé, gestion de projet, web conference. 

Derrière, figurait jusqu'alors les applications liées aux ressources humaines : gestion des recrutements des talents et de la paie. Entre 2010 et 2012, les applications liées à l'informatique de base : sécurité, sauvegarde, pilotage, supervision, tests, vont arriver au deuxième rang. C'est la grande nouveauté qualitative issue de l'étude. Deuxième donnée, la demande devrait se porter sur des applications transverses, mais utilisées en mode SaaS. Markess cite : la collaboration d'entreprise, les applications sociales, la communication vocale, les applications bureautiques, la gestion de contenu d'entreprise, l'analytique et le décisionnel.

 

Illustration : crédits D.R.

(...)

< Les 10 documents précédentsLes 10 documents suivants >