Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 751 à 760.

< Les 10 documents précédentsLes 10 documents suivants >


(29/11/2010 11:08:40)

Silicon Valley 2010 : Cloud dans une boite chez Joyent (5e partie)

Pour notre dernière journée dans la Silicon Valley, le vendredi 19 novembre, nous avons quitté la vallée pour rejoindre San Francisco et rencontrer Joyent, à l'origine d'une plate-forme cloud Paas/Iaas. Lancée en 2004, cette start-up repose sur une idée simple. « Nous avons instrumentalisé le cloud pour mieux le construire et le maitriser », explique Rod Boothby, vice-président, de la société. « Le modèle informatique est en train de changer alors pourquoi garder dans l'entreprise des services qui n'ont rien à y faire. C'est également un moyen de faire des économies ». 

La solution cloud de Joyent utilise son propre logiciel connu sous le nom SmartOS, basé sur OpenSolaris et ZFS, pour héberger des VM préconfigurées ou  animées par Windows et Linux (CentOS, Debian et  Ubuntu) et des applications (Smart Technologies) dans un datacenter.  L'entreprise affirme que son logiciel lui permet d'obtenir une meilleure utilisation des serveurs des centres de calcul que ses concurrents. Cette augmentation de l'efficacité se traduit par une baisse des coûts pour les clients. « Avec notre appliance Joyent nous proposons une solution software reposant sur OpenSolaris capable de supporter plus de machines virtuelles avec la même quantité de Ram (48 Go) », nous explique Rod Boothby.


Rod Boothby, vice-président, de la société Joyent

« Nous supportons Windows et Linux dans des machines virtuelles, mais l'intégration de KVM n'est pas encore faite. Nous proposons toutefois un catalogue d'options avec notre partenaire Zeus pour le low balancing par exemple.
 Joyent compte déjà plusieurs clients en France dont Venteprive.fr, et ailleurs dans le monde Gilt Group ou Linkedin (pour déployer certains nouveaux services nous précise Rob Boothby). Parmi les principaux partenaires de Joyent, citons Dell qui est venu chercher les briques qui manquent encore chez VMware pour déployer rapidement un cloud privé chez des clients. L'offre PaaS de la société (Virtual Private Cloud) permet de réserver des machines virtuelles à la demande. Précisons pour conclure qu'une équipe Joyent France vient de se monter avec Philippe Weppe à sa tête.

Lors de cette semaine en Californie, nous avons rencontré de nombreuses compagnies et on peut les classer dans deux catégories : celles qui sont nées à l'initiative d'entrepreneurs, et celles qui sont issues d'une bonne étude marketing avec un accès facile aux capitaux.  Dans tous les cas, le succès reste une affaire de capital, de travail et de motivation. En mars prochain, nous reprendrons la route pour rencontrer des entreprises innovantes et notre chemin passera cette fois par la Floride et la Californie grâce au remarquable travail réalisé en amont par Philippe Nicolas, de Condor Consulting.

(...)

(26/11/2010 16:38:38)

Supercalculateurs exaflopiques : Pas avant 2018

Au niveau international, la course pour construire un supercalculateur exaflopique (exascale en anglais) est lancée. Parmi ses leaders, Peter Beckman, chef du nouvel institut Exascale du Département de l'Énergie américain (DOE), affirme que de nombreux concurrents travaillent dur pour prendre la place de n¨1 des États-Unis dans le domaine des supercalculateurs. « Depuis deux ans, le DOE travaille sur l'informatique exaflopique, » a déclaré le super informaticien qui dirige l'Argonne National Laboratory, « mais le financement nécessaire - estimé à plusieurs milliards de dollars - pour construire ces systèmes de calcul n'a pas été approuvé. Si les États-Unis ne font pas cet effort en faveur du calcul exascale, nous ne pourrons pas avancer, » a-t-il déclaré.

Aujourd'hui, les systèmes les plus puissants atteignent le pétaflops, ce qui signifie qu'ils sont capables d'effectuer un million de milliards d'opérations en virgule flottante par seconde. Selon le dernier Top500 des supercalculateurs publié ce mois-ci,  le système le plus rapide est le Tianhe-1A situé en Chine, lequel atteint les 2,5 pétaflops. Un système exaflopique quant à lui se mesure en exaflops, soit 1 milliard de milliards d'opérations en virgule flottante par seconde. La Chine, l'Europe et le Japon travaillent tous sur des plates-formes informatiques exascale.

Récemment nommé directeur du nouvel institut Exascale Technology and Computing Institute et du Leadership Computing Facility d'Argonne, Peter Beckman évoque les défis auxquels il est confronté dans ce domaine.

Que fait on pour faire avancer l'exaflopique actuellement ?

Nous réalisons et nous comprenons que nous avons besoin de faire évoluer le matériel, les logiciels et les applications vers un nouveau modèle. Le Département de l'Énergie et d'autres également, cherchent à financer cette évolution. Mais la planification des dépenses nécessaires vient à peine d'être entreprise. Le projet dans le domaine du logiciel, que je dirige avec Jack Dongarra, professeur d'informatique à l'Université du Tennessee et chercheur émérite de l'Oak Ridge National Laboratory, et quelques autres recherches, bénéficie d'un budget de démarrage. Mais pour aller plus loin, il revient au gouvernement de montrer qu'il souhaite s'engager dans un objectif ambitieux et mettre en place un véritable plan de financement.

Les contraintes énergétiques, d'architecture processeur, de vitesses d'horloge, ont modifié ce qui se passe à tous les niveaux en matière d'informatique. Dans le passé, les ordinateurs portables étaient équipés d'un ou deux CPU. Mais aujourd'hui, ils ont quatre et huit coeurs, et nous voyons ce qui se passe avec le parallélisme qui va exploser ces limites. Nous devons adapter les algorithmes et mettre au point des applications capables d'utiliser ce parallélisme. En même temps, sur le plan du matériel et des logiciels systèmes, il y a un décalage énorme avec les questions énergétiques et les centres de calcul - tout ce qui se passe dans l'univers des serveurs web standard arrive dans le calcul haute performance. Avec un délai de trois ou cinq ans. Il faut voir ça comme une machine à remonter le temps. Ce qui se passe dans le calcul haute performance, se passe ensuite dans les serveurs de haute performance, pour arriver jusqu'à l'ordinateur portable de tout utilisateur.

Ce grand bouleversement nous incite à penser qu'il faut faire un effort réel et concerté aussi bien dans le domaine du hardware, du software que des applications. Cela ne peut se faire dans un seul domaine à la fois. Il s'agit de répondre à des questions scientifiques fondamentales, pour concevoir par exemple des voitures plus économes en carburant, de meilleures batteries au lithium, mieux comprendre le climat, créer de nouveaux médicaments, etc.

Combien de temps faudra-t-il pour y parvenir ? Et à quelle étape en êtes-vous ?

Voilà bientôt 10 ans que nous y travaillons. IBM est un partenaire d'Argonne et du Lawrence Livermore Lab, et nous avons conçu ensemble le Blue Gene/P et le Blue Gene/Q. Dans ce partenariat, IBM a reçu de l'argent pour concevoir des prototypes. À côté de ça, nos scientifiques ont procédé à son évaluation constante, avançant au fur et mesure les options possibles pour répondre à des questions comme : Faut-il plutôt choisir une unité de gestion de la mémoire ou ajouter un coeur supplémentaire ? Mais cela se passait entre nous, en quelque sorte. Nous n'avions pas besoin de communiquer avec l'ensemble de la communauté scientifique. Dans le cas de l'exaflopique, le DOE a proposé de créer une série de centres ce conception, à charge pour chacun de travailler sur un domaine d'applications particulier : la fusion, les matériaux, la chimie, le climat, etc. Chaque entité pourra ainsi communiquer directement avec les concepteurs de plates-formes pour avancer son projet.

Pour lire l'intégralité de cette interview, rendez-vous sur ce lien.

Illustration : Argonne National Laboratory
cloud

(...)

(26/11/2010 13:06:18)

HP pourrait lâcher Oracle pour Salesforce sur 35 000 postes

Décidément, les relations ne sont pas au beau fixe entre Oracle et HP. La zizanie pourrait s'intensifier avec l'abandon, par le second, de l'application de CRM (gestion de la relation client) du premier au profit de Salesforce.com. Depuis l'été, plusieurs accrocs ont successivement altéré les contacts au sommet entre les deux groupes. Ce fut d'abord la démission forcée de Mark Hurd, PDG de HP, qui conduisit le PDG d'Oracle, Larry Ellison, à apostropher le conseil d'administration du numéro 1 mondial de l'informatique, puis à embaucher à la présidence de son propre groupe le dirigeant en rupture de ban. Ce furent ensuite les accusations dirigées vers le nouveau PDG de HP, Léo Apotheker, avec la volonté d'amener cet ex-dirigeant de SAP à témoigner dans le cadre du procès TomorrowNow portant sur le vol de logiciels à Oracle (procès à l'issue duquel SAP vient d'être condamné à verser 1,3 milliard de dommages et intérêts).

Il semble maintenant que HP s'apprête à lâcher Oracle Siebel pour le logiciel Salesforce, proposé en mode SaaS, dans le cloud. Un contrat qui concernerait au bas mot 35 000 à 40 000 postes. Si cette décision de migrer est avérée, voilà qui constituerait un sacré pied de nez à Mark Hurd. Pourtant, il ne serait pas ici question de règlement de comptes. Selon un analyste, cité par le site International Business Times, passer à Salesforce permettrait à HP d'économiser beaucoup d'argent. Avec cette migration, HP pourrait  réduire sa facture de 40 à 50% par rapport à Oracle Siebel, selon ce qui aurait été rapporté à Trip Chowdhry, analyste chez Global Equities Research. C'est la note qu'il a rédigée à partir de ces informations qui a lancé les rumeurs. Il y précise que Salesforce.com espère annoncer le contrat à l'occasion de son événement annuel Dreamforce qui se tiendra à San Francisco du 6 au 9 décembre prochain.

Pour l'instant, ni HP ni Salesforce.com n'ont souhaité commenté ces informations. En revanche, la société de Mark Benioff est plutôt optimiste sur ces prévisions de résultats. Elle vient encore de relever ses estimations pour son exercice 2011 sur lequel elle prévoit un chiffre d'affaires situé entre 1,647 et 1,649 milliard de dollars. Et elle a indiqué être sur les rails pour atteindre les deux milliards de chiffre d'affaires en 2012.

Illustrations : capture d'écran des applications Siebel et Salesforce (crédit photo : D.R.) (...)

(25/11/2010 15:41:52)

IBM détaille sa vision du cloud

Si la notion de cloud computing est entrée dans les esprits des responsables informatiques, certains détails doivent être soulignés et mieux appréhender. C'est un peu le message implicite qu'a transmis Big Blue, lors d'un séminaire sur le cloud réalisé à Montpellier dans son centre de recherche. Pour Philippe Jarre, General Manager Global Technology Services « les entreprises perçoivent les avantages du cloud, qui devrait représenter 11% des investissements informatiques d'ici 2015 » et d'ajouter « il est nécessaire d'avoir une approche pragmatique et un changement de mentalité ». Il donne ainsi l'exemple du paradigme temps, qui évolue avec des technologies comme la virtualisation où le provisionning de VM passe de la semaine à la minute. Allant plus loin dans cette démarche, Philippe Jarre a indiqué aussi qu'il était nécessaire de spécialiser le cloud et non plus de le cantonner à une masse informe et polyvalente. Il a ainsi annoncé l'inauguration au centre de recherche de La Gaude (à côté de Nice) d'une salle de démonstration de cloud métier (finances, assurance, télécom, etc.)

Une « cloudisation » à la carte, mais sécurisée


S'il n'existe pas une réponse unique à ce qu'apporte le cloud dans une entreprise, IBM a vite compris qu'en matière de test et de développement, les responsables informatiques s'interrogeaient sur prendre de la puissance de calcul chez Amazon pour certains projets. Pour Fady El Kaddoum, responsable cloud, pour GTS France « nos clients veulent un accord contractuel et non pas donner leur numéro de carte bleue » et d'ajouter « nous proposons donc des offres sans engagement, mais aussi des services sur abonnement bénéficiant de réduction sur le prix final ». Cette contractualisation s'accompagne de SLA comme une disponibilité de 99,5%, la possibilité de personnaliser les instances choisies à partir d'un catalogue de services, de priorisation avec un classement Bronze, Argent, Or, mais aussi Platinium voir Iridium pour des demandes particulières.

Si cet exemple est parlant, la stratégie cloud pour une entreprise nécessite néanmoins une méthodologie pour fixer ses besoins et ses capacités de migration vers tel ou tel type de déploiement.  Pour se faire, IBM a concocté un  Cloud Adoption Framework, capable de visualiser et prendre en compte l'ensemble des éléments nécessaires à la proposition de solutions. « Cet accompagnement est essentiel pour comprendre l'intérêt du cloud et s'adapter aussi à l'orientation des DSI, certains sont plus sensibles à la technologie, d'autres à la réduction des coûts » souligne Dominique Dagois, consultant exécutif chez GTS France. La mise en place d'une méthode s'applique également  sur la sécurité. Il s'agit là d'une inquiétude récurrente de la part des DSI. IBM utilise donc un framework securité basé sur le recensement de 5 pôles sensibles (l'identification, la protection des données, sécuriser les applications et les infrastructures virtualisées, mais aussi les infras physiques). La sécurisation doit également se comprendre depuis le cloud et Big Blue propose ses solutions Securities Services, capable de gérer les failles de sécurité (pour exemple IBM qui est partenaire de Rolland Garros a recensé 8 millions d'attaques sur le site officiel du tournoi), protéger les mails et l'accès web, avoir une veille sur les vulnérabilités et un outil de log pour tracer aussi les attaques. Loïc Guezo, spécialiste sécurité chez GTS, a présenté une solution de sécurisation au niveau de l'hyperviseur (pour l'instant disponible avec VMware) qui comprend un IPS, la détection de Rootkit, etc... « l'hyperviseur contient des vulnérabilités qui pourraient être exploitées » souligne-t-il.

(...)

(25/11/2010 10:57:13)

Dassault Aviation se dote de supercalcultateurs Bull

Le groupe Dassault Aviation a donc décidé d'accroître ses capacités de calculs haute performance en se dotant de nouveaux super-calculateurs. L'avionneur souhaitait une solution capable de modularité afin de pouvoir l'accroître si besoin sans remettre en cause son architecture. De plus, il était nécessaire de minimiser la consommation électrique, tant pour des raisons de coût que d'empreinte carbone, et la maintenance. Enfin, l'architecture existante utilisant notamment des super-calculateurs Bull devait pouvoir accueillir l'extension réalisée.

Après appel d'offres, Dassault Aviation a choisi de se doter de calculateurs Bullx, fournis par la société française. En l'occurrence, l'équipement comprend trois racks Bullx avec neuf châssis Bullx B pour un total de 324 processeurs Intel Xeon 5560 (soit 1296 cores) et 4,7 TB de mémoire. L'ensemble déploie 13,8 Tflops de performance crête. Le coût du projet n'a pas été communiqué. L'architecture de calcul de Dassault Aviation est désormais constituée à 60% de produits fournis par Bull.

(...)

(22/11/2010 12:20:18)

IBM en tête du Green500

Tandis que la Chine a pris la tête de la liste mondiale des supercalculateurs les plus puissants, l'Américain IBM s'est de son côté distingué dans la catégorie des systèmes présentant la consommation d'énergie la plus efficace par rapport à leur puissance de calcul. La prochaine génération de Blue Gene d'IBM, le supercalculateur Blue Gene/Q, arrive à la première place du Green500 publié la semaine dernière.

Le Blue Gene/Q est 165% plus efficace que le supercalculateur chinois Tianhe-1A qui occupe la première place du Top500 publié mi novembre. Et il est 77% plus efficace que le système qui le suit immédiatement au Green500, le Tsubame 2.0 de l'institut de technologie de Tokyo. En termes de données brutes, il a été constaté que le Blue Gene/Q exécutait 1,684 megaflops par watt, alors que le Tsubame 2.0 affiche 948 megaflops par watt. A la troisième place du classement figure encore un système américain. Il s'agit de l'EcoG du NCSA (National Center for Supercomputing Applications), avec 933 megaflops par watt.

1 milliard de watt d'ici dix ans si rien n'est fait


Cette liste fait apparaître que les supercalculateurs les plus puissants ne font pas nécessairement le meilleur usage de l'énergie consommée. Au chapitre des performances pures, le pic de performance atteint par le Blue Gene/Q, par exemple, plafonne à 653 teraflops en comparaison des 2,57 petaflops du Chinois Tianhe-1A. En revanche, l'efficacité énergétique de ce dernier ne dépasse pas les 635 megaflops par watt, ce qui le place à la onzième place du Green500.

L'idée de ce classement a pris forme en 2005, à l'instigation du chercheur en informatique, Wu-chun Feng, directeur du laboratoire Synergy de l'Université Virginia Tech. Deux ans plus tard, la première liste sortait, avec l'objectif d'attirer l'attention sur l'augmentation de la consommation d'énergie des supercalculateurs. Wu-chun Feng considère que l'efficacité énergétique doit être prise en compte dans les contraintes de conception des systèmes. Dans une interview accordée à nos confrères d'IDG News Service, le chercheur signale qu'à la fin de la décennie, si la conception des systèmes ne change pas de trajectoire, le supercalculateur de pointe consommera un gigawatt (un milliard de watts). Par ordre de comparaison, l'état de New-York a lui seul consomme une moyenne de 62 gigawatts par an.

IBM exploite sa puce PowerXCell


Le Green500 est mis à jour deux fois par an. La participation des candidats est volontaire et le classement repose sur le nombre d'opération en virgule flottante exécutées par watt d'électricité. Seuls les ordinateurs figurant dans le Top500 sont pris en compte.

La dernière liste montre que l'utilisation des processeurs graphiques (GPU) constitue une façon d'augmenter la puissance qui se trouve être relativement peu gourmande en énergie. Ainsi, quatre des dix premiers utilisent des GPU Nvidia, ce qui aurait été impensable il y a quelques années.

Le Blue Gene/Q d'IBM n'intègre pas de GPU. Il s'appuie sur un autre type de carte d'accélération, basée sur sa puce PowerXCell. Pour le professeur Wu-chun Feng, 2010 peut être considérée comme 'l'année de l'accélérateur'. « C'est une plateforme informatique alternative qui convient bien à des tâches différentes. L'autre avantage, c'est qu'il se trouve qu'elle présente un très bon rendement énergétique ».

(...)

(22/11/2010 12:08:26)

Un projet européen pour la sécurisation du cloud

Le cloud est une expression à la mode souvent invoquée par les entreprises offrant des services informatiques dans leurs propres centres de données. Des sociétés comme Google, Microsoft et IBM ont été agressive sur cette technologie. Cependant, ce concept entraîne certaines questions sur la vie privée et la sécurité qui n'ont pas fait l'objet d'études approfondies. Les sujets sont pourtant variés, cadre réglementaire et juridique, mais aussi des questions techniques sur la sécurisation des données stockées à distance.

Le projet européen, appelé « Trustworthy Clouds » ou TClouds, « se penchera sur ces questions d'ordre juridique », a déclaré Christian Cachin, un informaticien spécialisé de sécurité et de cryptographie de recherche IBM de Zurich. Big Blue pilotera le projet, qui comprend également plus une douzaine d'autres entreprises et organismes de recherche. L'U.E débloque 7,5 millions d'euros pour TClouds, dont 3 millions en provenance des entreprises et des organisations. Sur le plan technique, TClouds travaillera sur l'élaboration de meilleurs outils de confidentialité via des protocoles de partage de données entre deux sociétés fournissant un service de cloud. Il concerne aussi la mise en place de standard en matière de sécurité et la création d'API ouvertes.

Une recherche fondamentale, mais variée

Les différents résultats de ces recherches seront publiés et les normes proposées pourront éventuellement être utilisées dans des logiciels. Pour autant, Christian Cachin a déclaré « il faudra attendre au moins une décennie pour que ce projet trouve sa traduction dans un produit, car les travaux réalisés s'apparentent à de la recherche fondamentale ».

Les chercheurs travailleront sur deux scénarios pour voir s'il est possible d'offrir un niveau de sécurité et de fiabilité pour le cloud computing. Un de ces projets impliquera Energias, un fournisseur d'énergie portugais et EFACEC, une société qui fournit l'infrastructure du réseau électrique, également basé au Portugal. TClouds étudiera comment un système conçu pour contrôler efficacement un réseau d'éclairage public peut être migré vers le cloud.

Le deuxième pilote se concentrera sur les soins de santé et impliquera l'hôpital San Raffaele de Milan. Les chercheurs chercheront à savoir s'il est possible de surveiller à distance et de diagnostiquer les patients chez eux, avec des données stockées dans le cloud et consultées par les patients, les médecins et les pharmaciens. L'objectif est de voir si cela entraîne une réduction des coûts des soins de santé, tout en préservant la confidentialité des patients.

(...)

< Les 10 documents précédentsLes 10 documents suivants >