Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 741 à 750.

< Les 10 documents précédentsLes 10 documents suivants >


(02/12/2010 12:58:48)

Microsoft investit discrètement dans TurboHercules

Poursuivant sa croisade discrète pour une plus grande ouverture du mainframe ou tout du moins réduire la mainmise de ce marché par IBM, Microsoft a investi dans la société TurboHercules, qui propose des émulateurs d'OS pour mainframes. Aucune des deux sociétés n'a divulgué le montant ou les modalités de l'investissement.

Cet effort financier s'inscrit dans la démarche de la firme de Redmond d'investir dans les entreprises et les organisations qui contestent le bastion d'IBM dans les mainframes. En mars dernier, TurboHercules avait déposé une plainte auprès de la Commission européenne contestant le couplage OS et mainframe d'IBM, fermant le marché à d'autres fournisseurs. Une autre entreprise qui a reçu elle aussi un financement de Microsoft, T3, avait également déposé une plainte similaire. La firme de Redmond est membre de la Computer and Communications Industry Association  qui, l'année dernière, a oeuvré pour que le ministère américain de la justice ouvre une enquête antitrust sur la position dominante d'IBM sur les mainframes.

TurboHercules gère le code d'un émulateur Open Source, appelé Hercules, qui permet à l'OS mainframe IBM de s'exécuter sur des serveurs x86. Hercules fonctionne sur Windows et Linux. Cette solution pourrait se substituer, en théorie, à l'OS mainframe avec des logiciels associés sur des serveurs x86, mais le marketing de TurboHercules réserve son produit « pour des opérations auxiliaires ou complémentaires comme l'archivage, la reprise après sinistre, les tests et le développement » explique Bill Miller, PDG de TurboHercules lors d'un entretien avec notre confrère d'IDG NS. Il ajoute que Hercules « viendra compléter le mainframe, mais ne le remplacera pas ».

Un investissement comme un autre


TurboHercules prévoit d'utiliser l'investissement de Microsoft pour augmenter ses efforts de vente et de développer des logiciels sur la base de Hercules facilitant les opérations de PRA. Le dirigeant s'attend à ce que cet investissement soit le premier d'une série. Il a par contre refusé de commenter la plainte de sa société auprès de la Commission européenne. IBM a, de son côté, refusé de commenter l'investissement.

Microsoft a également décliné tout commentaire sur l'investissement  en dehors d'une déclaration écrite: « Microsoft partage les convictions de TurboHercules, qu'il faut une plus grande ouverture et de choix pour les clients sur le marché du mainframe. Les clients nous disent qu'ils veulent une plus grande interopérabilité entre les plates-formes mainframes et d'autres, y compris les systèmes qui exécutent Windows Server. Pour cette raison, nous continuons à investir dans des entreprises comme TurboHercules capable de développer des solutions pour nos clients communs. » Microsoft avait publié une déclaration identique, pour décrire son investissement dans T3, tout en niant toute implication dans la plainte de T3 contre IBM.

(...)

(02/12/2010 12:59:14)

Le cloud attire les cyber criminels

Lors d'un discours qu'il a prononcé à Sydney à l'occasion de la conférence annuelle de l'Association internationale des professionnels de la Sécurité Privée (International Association of Privacy Professionals), le ministre australien de l'Intérieur et de la Justice, Brendan O'Connor, a déclaré que les organisations criminelles exploitaient de plus en plus les services en ligne pour atteindre leurs propres objectifs. « Les cybercriminels ne cherchent pas seulement à voler des informations hébergées dans les clouds, ils peuvent aussi y cacher des données, » a-t-il fait savoir. À titre d'exemple, il a cité le cas de fournisseurs de services basés dans des pays peu regardant en matière de cybercriminalité « qui peuvent offrir des hébergements et des services de stockage confidentiels, facilitant ainsi le stockage et la distribution de données criminelles, à l'abri de toute détection par des organismes chargés d'appliquer la loi. » Par exemple, les cybercriminels peuvent utiliser le cloud secrètement pour stocker et vendre du matériel pédopornographique. « Les cybercriminels ont le pouvoir de contrôler les serveurs de ces clouds : ils peuvent empêcher l'accès d'utilisateurs légitimes à des sites web et cibler des sites pour y diffuser des messages ou des images de manière répétée, » a-t-il expliqué. 

« Certains pensent également que les clouds peuvent être détournés pour servir de base au lancement de cyber attaques, y compris en utilisant la puissance de calcul des clouds pour casser les données chiffrées après avoir testé toutes les combinaisons de mots de passe possibles. » Selon le dirigeant, l'attaque, fin 2009, contre Google et plusieurs autres entreprises, a rappelé combien les systèmes et les données étaient vulnérables. « L'attaque, qui consistait aussi à pirater les mails de personnes ciblées, a montré la particulière vulnérabilité des informations personnelles et des échanges privés dans l'espace en ligne » a-t-il déclaré. Selon lui, la transparence et la confiance entre les fournisseurs de services cloud, les entreprises et les organismes gouvernementaux, permettraient de limiter les risques posés par la cybersécurité.

Attention à la sécurité des clouds

Pour montrer l'exemple, le gouvernement australien a décidé de s'appuyer sur l'unité High Tech Crime Unit de la Police fédérale australienne (AFP) qui a mis en place un système de traçage développé par CrimTrac pour repérer les matériels pédopornographiques. « Après une large consultation menée auprès du gouvernement, l'Australian Government Information Management Office (Agimo) enquête actuellement sur un certain nombre de questions, comme la vulnérabilité des systèmes de stockage de données offshore; les questions juridiques relatives à l'extra-territorialité en matière de conformité et de vie privée, et les aménagements contractuels nécessaires pour atteindre des niveaux de sécurité appropriés,» a déclaré le ministre. «Parce que les fournisseurs de services cloud ne sont pas interchangeables, les difficultés inhérentes à permuter entre les fournisseurs devront également être prises en compte, avec la possibilité de récupérer les informations en cas de catastrophe ou de défaillance du vendeur. »

En outre, pour les gouvernements, les risques de sécurité ou de confidentialité peuvent être augmentés dans le cas où le cloud héberge des clients indépendants, et partage entre eux du matériel et des ressources logicielles, sans compter que la concentration des ressources et des données en un seul lieu représente en soi une cible de choix pour les cybercriminels. «Étant donné les avantages du cloud computing, et pas seulement pour les entreprises, mais aussi pour les gouvernements et les particuliers, il est impératif de travailler ensemble sur ces enjeux afin de pouvoir profiter pleinement de tout ce que le cloud computing a à offrir», a conclu Brendan O'Connor. Ces déclarations vont dans le même sens que la mise en garde faite au mois de novembre par l'Australian Prudential Regulation Authority (APRA). Celle-ci avait publié une lettre ouverte mettant l'accent sur la nécessité de bien apprécier les risques liés à tout type d'externalisation et de délocalisation, y compris dans le cloud computing.

(...)

(02/12/2010 11:11:13)

Conférence Urba-EA : OBS, Oracle et IT4Control défendent leur vision du cloud

Le 30 novembre dernier, le club Urba-EA a organisé une conférence sur le thème du cloud computing. A cette occasion, Oracle, Orange Business Services et IT4Control ont donné leur vision. Jean-Marc Loesch, Business Development Manager Oracle On Demand, a décrit la stratégie de cet éditeur, qui consiste à offrir une perméabilité complète entre cloud public et SI évoluant vers un cloud privé. « Certaines entreprises commenceront en mode public et continueront en mode privé », estime Jean-Marc Loesch. Dans cette optique, Oracle propose des services SaaS, PaaS et IaaS utilisant les briques de son offre traditionnelle, qui va des OS aux logiciels métiers en passant par la virtualisation, le middleware et la base de données. Jean-Marc Loesch a en outre insisté sur la couche Cloud Management qui vient coiffer cette pile de technologies.

Vers l'émergence d'un App-Store du SI

Plaidant en faveur d'une maturité prochaine du cloud computing, Gilles Bizet, senior manager chez Orange Consulting, s'est livré à un parallèle avec l'urbanisation du SI, qui fut une suite logique de l'arrivée de concepts comme la programmation orientée objet, les SOA, XML, LDAP, les ETL ou les EAI. « De la même manière, le Cloud est la suite logique des méthodologies utilisées dans l'out-sourcing, de la virtualisation, des services de Google, Salesforce ou Amazon et de la génération Y - ces jeunes utilisateurs qui veulent devenir acteurs du SI et non plus seulement utilisateurs », a expliqué Gilles Bizet, tout en estimant que le cloud computing pourrait demain ressembler à un App-Store du SI.

Jacques Merlinge, CTO d'IT4Control, a pour sa part d'abord parlé d'APM (Application Portfolio Management), qui consiste à automatiser le référencement des applications afin de construire un catalogue. Cela, dans le but de réaliser une cartographie montrant les interconnexions, ce qui permet par exemple d'analyser l'impact de la suppression d'une application. Le rapport avec le Cloud ? Tout d'abord, l'offre APM d'IT4Control est proposée en mode Saas. D'autre part, IT4Control développe une couche d'abstraction qui permettra de créer des serveurs logiques pouvant être indifféremment déployés dans différents clouds privés ou publics (comme Amazon et Microsoft Azure). « Nous avons apporté cette expertise au projet de Cloud privé de la STIME, la DSI du groupe Les Mousquetaires », a signalé Jacques Merlinge.
(...)

(01/12/2010 15:21:14)

Un service de sécurisation des données pour Salesforce.com

Le service consiste à crypter de toutes les données considérées comme sensibles, avant qu'elles ne soient transmises au système de Salesforce.com. Selon un document rédigé par Navajo, même si ces données résident chez Salesforce.com, elles sont « totalement illisibles (et donc inexploitables) ». Toujours selon Navajo « le vol de la base de données, les fuites accidentelles, les demandes d'assignations faites au fournisseur SaaS et même le vol d'identité, deviennent inoffensifs, et la conformité réglementaire est assurée. »

Le logiciel de Navajo décrypte l'information quand elle est renvoyée à l'utilisateur final, les entreprises conservant le contrôle des clés de déchiffrement. Le service fonctionne en tâche de fond et ne requiert aucune modification du code de l'application SaaS, selon Navajo. Si les données circulant entre le data center d'un fournisseur SaaS et le navigateur d'un utilisateur final sont généralement cryptées, la copie de la base de données résidant chez le fournisseur SaaS peut ne pas l'être. Les données des utilisateurs demeurent vulnérables, même si le fournisseur SaaS procède à leur cryptage, car un employé peu scrupuleux ou un pirate pourrait y accéder et violer cette l'information, toujours selon Navajo. Le service virtuel peut être installé sur un appareil qui s'intègre au réseau du client, ou être fourni à titre de service par Navajo ou par un fournisseur tiers.

Une sécurisation polyvalente


Basé sur Linux, le système repose sur trois composants : un serveur proxy placé entre de l'application SaaS et les utilisateurs du client, un moteur de chiffrement utilisant « des méthodes de cryptage homologuées, basées sur des algorithmes NIST », et un outil de gestion et de contrôle de la sécurité avec une interface web. Le chiffrement, indépendant du hardware ou de la base de données, reste sécurisé jusqu'au déchiffrement, en partie pour permettre aux applications de continuer à fonctionner. Par exemple, la date et l'heure d'une réunion dans un agenda pourraient ne pas être chiffrées, mais d'autres détails pourraient l'être, comme le précise le document de Navajo. La technologie de sécurisation utilisée permet également à l'application de rechercher et de trier les données chiffrées.

Navajo a déjà inclus par ailleurs des fonctions comparables à celles vendues pour Salesforce.com sur d'autres applications SaaS, comme SuccessFactors, Google Apps et Oracle CRM On Demand. L'entreprise israélienne est en concurrence avec des sociétés comme PerspecSys, laquelle propose aussi un service spécialisé pour la protection des données sur Salesforce.com. Selon Steve Coplan, analyste du cabinet 451 Group, qui a rédigé un récent rapport sur Navajo, « les enquêtes montrent que les questions de confiance et de sécurité sont déterminantes pour décider une entreprise à adopter le cloud computing. « Les fournisseurs de SaaS et les entreprises savent qu'en faisant cet investissement stratégique pour résoudre ces questions, ils peuvent contribuer à faciliter l'adoption du Cloud. Ce qui rend Navajo pertinent, » a t-il ajouté. Cependant, « nous craignons que, si l'offre spécifique de cette jeune société pour le respect et la confidentialité des données peut susciter l'intérêt, la société risque de se créer un handicap, en particulier si la conformité est comprise à juste titre comme un sous-ensemble de la sécurité et que la confidentialité des données comme un aspect de la transformation structurelle, » écrit Steve Coplan.

(...)

(01/12/2010 15:04:02)

Le calcul intensif version Nvidia bientôt sur les mobiles

Cet apport, quand il sera effectif, devrait marquer un saut qualitatif dans la capacité pour les appareils mobiles comme les smartphones et les tablettes à exécuter des applications riches en multimédia. « L'avantage de CUDA dans les appareils mobiles est incroyable », a déclaré le PDG de Nvidia, Jen-Hsun Huang, dans une interview à Tokyo. CUDA gère certaines tâches gourmandes en ressource processeur comme le montage vidéo ou de retouche d'image en déchargeant le CPU vers le GPU. Ce système entraîne une amélioration significative de la vitesse de traitement des données.

Les puces graphiques sont limitées dans le type de traitement qu'elles peuvent réaliser, mais, avec plus de 100 coeurs dans un processeur graphique moderne contre seulement quelques coeurs dans un processeur, elles sont particulièrement bien adaptées à ces tâches (image et vidéo). L'architecture CUDA combine des logiciels et du matériel. Elle a été rapidement adoptée pour les supercalculateurs, dont plusieurs sont basés sur des combinaisons de GPU Nvidia et les processeurs Intel. Plus récemment, elle est arrivée dans l'entreprise et auprès du grand public pour accélérer des actions comme l'encodage vidéo dans Adobe Premiere CS5.

Découvrir un autre univers plus réactif

« Imaginez que nous apportons cette capacité CUDA dans un téléphone mobile » a dit Jen-Hsun Huang. Il a pris comme exemple une application capable de reconnaître une bouteille de vin depuis une image prise par le smartphone, puis l'interface se connecterait à un service de cloud computing pour fournir des informations sur le vin, le meilleur prix et quand il doit être bu. « Vous regardez à travers votre appareil photo et une multitude d'informations sur votre environnement sont disponibles instantanément » souligne le dirigeant et d'ajouter que l'intégration de cette architecture ne devrait voir le jour que d'ici 2 ou 3 ans.

La stratégie de Nvidia sur le mobile repose sur le processeur Tegra à base de technologies ARM. Le dual-core Tegra 2 a déjà été utilisé dans certains produits, comme le Folio de Toshiba et prochainement dans une tablette pour Dell. (...)

(01/12/2010 12:51:36)

Red Hat acquiert Makara, spécialiste du PaaS

L'éditeur Open Source prévoit d'utiliser les technologies de Makara, dans le portefolio de sa Cloud Foundation. « Cette dernière donne aux clients et aux développeurs un accès plus facile au monde du cloud. Avec l'ajout du savoir-faire de Makara, nous cherchons à simplifier davantage le déploiement d'applications et de gestion », a déclaré Paul Cormier, responsable produits et technologies chez Red Hat.

Plus précisément, les logiciels de Makara pourront être utilisés dans le cadre de la Platform-as-a-Service (PaaS) de Red Hat. Lorsqu'ils seront combinés avec JBoss Enterprise Middleware, la plate-forme disposera de fonctionnalités supplémentaires de surveillance, de restauration et des outils d'évolutivité.

En mode PaaS

« Le PaaS devient un autre marché pour les éditeurs de logiciels qui cherchent à fournir des solutions d'entreprise convaincantes dans le cloud », a déclaré Rachel Chalmers, directrice de recherche au sein de 451 Group. « En rachetant les technologies développées par Makara dans le cloud, Red Hat est maintenant en mesure de répondre à ce marché en créant des solutions pour les entreprises à la recherche de déploiement, de gestion et des capacités d'auto-évolutivité au sein de la plate-forme initiale », dit-elle.

Nommé d'après une créature aquatique de la mythologie indoue, Makara est basé à Redwood City, en Californie. La société a reçu le soutien financier de Shasta Ventures, Sierra Ventures, Marc Andreessen et Ben Horowitz.

(...)

(01/12/2010 11:03:30)

Les ventes mondiales de serveurs ont augmenté de 15,3% au 3e trimestre

Selon Gartner, le marché mondial des serveurs a connu un quasi équilibre entre hausse du chiffre d'affaires et croissance des livraisons au troisième trimestre 2010. Au cours de cette période, le nombre d'unités livrées a progressé de 14,2%, comparé au troisième trimestre 2009, pour atteindre les 2,12 millions de serveurs. Dans le même temps, les revenus du secteur ont crû de 15,3% pour se situer à 12,3 milliards de dollars. Certes, la croissance en volume du marché fut plus bien importante lors des premier et second trimestres de l'année (23% puis 27%). Mais en dépit de cet écart avec le premier semestre, la hausse des revenus au troisième trimestre est la plus forte depuis le début 2010.

Explication de Jeffrey Hewitt, vice-président responsable de la recherche chez Gartner : « Le prix moyen des serveurs, principalement celui des serveurs X86, a connu une hausse qui a entraîné une croissance des revenus plus importante que la progression sur les livraisons ». Cette hausse du prix moyen tient au fait que les entreprises assignent de plus en plus de tâches à ces serveurs, souvent en utilisant des technologies de virtualisation qui demandent plus de capacités de calcul, et choisissent en conséquence des matériels plus onéreux. Principal moteur du marché, le segment des serveurs X86 a ainsi vu ses recettes croître de 29,5% et ses livraisons de « seulement » 14,9%. Les ventes de serveurs embarquant des processeurs différents, principalement les mainframes, ont enregistré, quant à elles, une croissance en valeur de 9,9%. Seul le marché des serveurs Risc/Itanium a souffert, touché par une baisse de 9,5% en valeur et de 10,1% en volume.

L'Europe de l'Ouest fait pâle figure...


Comparé au marché mondial, celui d'Europe de l'Ouest est loin d'avoir connu les mêmes envolées lors du troisième trimestre 2010. Sa croissance en volume s'est limitée à 8,8% et sa hausse en valeur à 5,7%. C'est moins bien que les Etats-Unis (+17% en volume ; + 16,3% en valeur), que l'Europe de l'Est (+33,3% en valeur) et que l'Amérique Latine (+28,3% en volume). C'est en revanche mieux que  l'ensemble de la zone EMEA (Europe, Moyen-Orient, Afrique) sur laquelle le chiffre d'affaires du marché des serveurs a baissé de 2,9% en dépit de livraisons en hausse de 4,2%.

Au niveau mondial, tous les fabricants de serveurs, sauf un, ont vu leur chiffre d'affaires progresser au troisième trimestre. Toujours numéro un, HP dispose d'une part de marché en valeur de 32,1% grâce à des revenus en hausse de 22%. Il n'y a guère que Dell qui ait fait mieux avec un chiffre d'affaires en croissance de 25,6% pour une part de marché en valeur de 14,6%. Le Texan se situe ainsi à la troisième place des fabricants dans le monde en termes de revenus. De son côté, IBM reste le numéro 2 mais perd deux points de parts de marché en valeur à 30,2%. Il pâtit de revenus en croissance de seulement 9,9%. Quant à Oracle, il est passé à la cinquième place derrière Fujitsu avec 6,2% de parts de marché et un chiffre d'affaires en baisse de 2,6%. Le repreneur de Sun ne figure même pas dans le Top 5 mondial des fabricants de Gartner en termes d'unités vendues. Egalement numéro un de ce classement, HP est suivi, dans l'ordre, par Dell, IBM, Fujitsu et Nec. Ce dernier est le seul à avoir vu ses livraisons reculer durant le trimestre, en l'occurrence de 2%.

Illustration : serveur HP Integrity série BL860c (crédit photo : HP)
(...)

(30/11/2010 17:10:13)

La Chine innove avec le site qui abritera le supercalculateur Tianhe-1A

C'est un design moderne et élégant que la Chine a choisi pour son nouveau centre de calcul NSCC (National Supercomputing Center). Une architecture qui se démarque de celles que l'on a l'habitude de retenir lorsque l'on bâtit un datacenter. Dimanche dernier, à Changsha, dans la province centrale de Hunan, ont débuté les travaux de construction du troisième centre de calcul du pays. C'est là que sera accueilli le désormais fameux supercalculateur Tianhe-1A qui, depuis une semaine, culmine au premier rang du Top500 des ordinateurs les plus rapides du monde, avec sa puissance de 2,5 petaflops/s. L'agence de presse chinoise Xinhua a publié hier des photos du projet qui reflète les ambitions du pays dans le domaine du calcul haute performance.

Pour Tad Davies, vice président exécutif de Bick Group, une société qui travaille notamment sur la conception de datacenters, le rendu proposé par l'image est destiné à créer des impressions plutôt qu'à refléter la réalité. Quoiqu'il ne sache pas avec certitude laquelle des deux bâtisses abritera le supercalculateur, la construction ronde pourrait être utilisée pour recueillir l'eau. En revanche, le niveau en sous-sol visible sur l'image pourrait constituer un emplacement idéal pour l'ordinateur. Le bâtiment rectangulaire est très probablement destiné aux laboratoires, aux salles de classe et aux bureaux, estime Tad Davies.

La Chine a lancé un offensif  programme de développement sur le terrain des supercalculateurs si l'on en juge par les « slides » de présentation faite par un représentant du centre de calcul haute performance de l'Académie chinoise des Sciences, à l'occasion d'une conférence sur le thème des systèmes exaflopiques en octobre. Entre 2011 et 2015, le pays veut construire au moins un système capable d'atteindre une puissance de 50 à 100 petaflops. Les Etats-Unis, de leur côté, prévoient au moins deux systèmes à 20 petaflops en 2012, l'un au laboratoire national d'Oak Ridge et l'autre au laboratoire national Lawrence Livermore.

La Chine s'est fixé de réaliser son premier système exaflopique entre 2016 et 2020 (un exaflop est un millier de fois plus rapide qu'un petaflop).

Illustration : site de l'agence de presse Xinhua (crédit photo : D.R.) (http://news.xinhuanet.com/english2010/china/2010-11/28/c_13626049.htm)

Cloud

(...)

(30/11/2010 15:36:05)

Une start-up recycle les ressources inutilisées dans les clouds

Si l'on s'intéresse aux technologies permettant d'améliorer l'utilisation des ressources informatiques au sein de l'entreprise, ce sont assurément VMware et son logiciel de virtualisation x86 qui viennent peut-être le plus facilement à l'esprit. Mais il en existe une nouvelle, plus récente, proposée par un petit vendeur qui a déjà attiré de nombreux clients classés au Fortune 500. Celui-ci propose des technologies de « grille » et de gestion cloud qui réutilisent les cycles de calcul perdus et automatisent le processus de construction de clusters HPC. Fondée il y a cinq ans, Cycle Computing avait pour principale activité d'aider ses clients à utiliser Condor, un système de gestion de charge pouvant exécuter des tâches de calcul intensif sur des PC mis en veille. Puis, l'entreprise a été amenée à gérer de nombreux systèmes de planification de tâches, imaginant pour ses clients des solutions permettant de réutiliser la capacité excédentaire des installations VMware, compatibles avec des services cloud comme l'EC2 d'Amazon.

Lors de la récente conférence SC10 sur les supercalculateurs qui s'est tenue à la Nouvelle Orléans, le fondateur et PDG  de Cycle Computing, Jason Stowe, a pu faire état d'une impressionnante liste de clients, parmi lesquels JP Morgan Chase, Pacific Life, Lockheed Martin, Eli Lilly, Pfizer, Bank of America, Electronic Arts, Johnson & Johnson et ConocoPhillips. JP Morgan Chase, par exemple, s'appuie sur la technologie de Cycle Computing pour effectuer d'importants calculs en utilisant des capacités de travail qui, selon Jason Stowe, seraient perdues. Sa société de moins de 20 personnes, qui a démarré sans investisseurs extérieurs, affiche « quelques millions de dollars » de revenus pour moins d'une centaine de clients. « Cycle Computing a vu ses revenus croître de 50% par an au cours des quatre dernières années, » a déclaré son PDG.

Une technologie issue du monde mainframe

Tout comme VMware a emprunté sa technologie de virtualisation au mainframe d'IBM pour l'appliquer aux centres de calcul avec leurs serveurs x86, Computing Cycle s'est inspirée de stratégies fondées sur une recherche vieille de plusieurs décennies et l'a adapté à l'âge du cloud computing et de la virtualisation. L'idée d'exploiter les cycles inutilisés des ordinateurs de bureau pour réaliser des clusters de calcul existe « depuis 20 ans », explique Steve Conway, analyste chez IDC. Le système Condor est lui aussi connu depuis 25 ans environ. « Cycle Computing a réussi, parce qu'elle propose d'automatiser les tâches difficiles qui doivent être effectuées par les administrateurs, » fait remarquer l'analyste, ajoutant que «tout le monde cherche la facilité d'utilisation. » Mais pour Steve Conway, le plus intéressant au sujet de Computing Cycle, c'est son plan à long terme pour proposer une technologie de clusters viable et compatible avec des services cloud comme Amazon EC2. Même s'il pense que la technologie n'a pas encore atteint son maximum aujourd'hui, il estime « qu'au cours des prochaines années », il pourra être possible de la développer sur tous les clouds publics, un équivalent total de l'environnement informatique corporate sur site, avec toutes les politiques, toutes les directives, et tout le reste. « Ce modèle peut vraiment devenir une extension élastique de l'environnement d'entreprise, » a-t-il déclaré.

Le produit CycleCloud, construit sur Amazon Web Services, permet aux clients de créer des clusters de calcul haute performance qui ouvrent et ferment automatiquement les noeuds à mesure que les charges de travail démarrent et s'achèvent. « En quelques minutes - 10 à 15 min environ -le logiciel CycleCloud « met en route un environnement HPC complet à l'intérieur de l'infrastructure Amazon, » avec des systèmes de fichiers partagés, un térabit de stockage, une interconnexion de 10 Gigabits et des puces Nehalem d'Intel, » explique le PDG de Cycle Computing. Alors que CycleCloud gère les ressources externes, CycleServer, autre produit du vendeur, apporte au centre de calcul une interface web basée sur Condor, SGE, Torque et Hadoop pour la gestion des clusters HPC. La technologie de Cycle Computing fonctionne indifféremment sur des systèmes d'exploitation Linux et Windows.

En complément de VMware

L'une des utilisations les plus surprenantes de cette technologie concerne les datacenters faisant un usage intensif de l'hyperviseur VMware. Selon Jason Stowe, même si la technologie VMware optimise l'utilisation des cycles en permettant à de multiples images de système d'exploitation et à des applications de s'exécuter sur la même machine, ces serveurs sont encore sous-utilisés, en particulier la nuit. «VMware travaille sur la consolidation. Cela ne modifie pas la nature du pic comparé à l'utilisation moyenne,» indique le PDG de Cycle Computing. « Ces serveurs sont utilisés de manière incroyablement intense à certains moments, et pas du tout à d'autres. La virtualisation n'a aucun impact sur ça. » L'entreprise a une demande croissante pour améliorer l'utilisation des serveurs VMware et dispose « d'une assez belle notoriété autour de ça, » ajoute Jason Stowe. « Si vous tirez 20% à 40% de votre environnement VMware, c'est déjà assez impressionnant en terme de degré d'utilisation du processeur, » dit-il. « Mais vous laissez toujours une capacité de 60% de côté. Notre système permet d'arriver à plus de 90%. »

Même si les produits de Cycle sont plutôt ciblés sur des scénarios de calcul technique, en théorie, toute entreprise ayant une capacité de calcul inutilisée pourrait en bénéficier. « Parmi les concurrents de Cycle Computing, on peut citer SGI et Wipro, Amazon et Microsoft, » dit Steve Conway. Amazon, par exemple, offre désormais des instances de clusters basées sur des processeurs graphiques, et Windows HPC Server de Microsoft sait maintenant utiliser des PC en veille tournant sous Windows 7. Selon l'analyste, Cycle Computing a tendance à être plus cher que ses concurrents, car ses produits sont très spécialisés. Mais celui-ci a confiance dans l'avenir de la jeune entreprise. «Ce que j'aime à propos de Cycle en particulier, c'est la perspective que l'entreprise apporte, » dit Steve Conway. « Ils ont vraiment une vision très forte et très claire de la manière dont va évoluer le cloud computing dans les deux à cinq prochaines années. »

 

(...)

(30/11/2010 11:56:07)

Dezineforce : le supercalculateur mis en boite

La société britannique Dezineforce a trouvé comment mettre la technologie des supercalculateurs à la disposition des petites entreprises. Son produit, Technical Computing, sait réaliser des simulations complexes utilisées par les ingénieurs d'études et fournir des résultats en quelques minutes plutôt qu'en plusieurs heures. « Disponible soit sous forme de boîte noire, « Dezineforce Black Box», soit en version cloud, le produit sert du calcul haute performance (HPC) à tout ingénieur capable de mettre en route un grille-pain », selon Joe Frost, vice-président responsable des ventes. 

L'appareil lui-même a été conçu afin d'optimiser au maximum les ressources disponibles au sein d'une entreprise. « La boîte noire apporte essentiellement une capacité de calcul HPC, configurée spécifiquement pour l'analyse conceptuelle. Elle est fournie, préinstallée, avec des applications d'analyse comme ANSYS Mechanical et LS-Dyna, une suite d'outils opérationnels et de planification complexe capable de gérer l'ensemble des travaux soumis par les ingénieurs au système afin d'utiliser au maximum les ressources en calcul et en analyse disponibles. Cela assure aussi un travail en continu qui accroît l'efficacité », explique Joe Frost.

Accélérer les temps de rotation, de 10 à 50 fois


Selon Dezineforce, la possibilité d'accéder à l'HPC dans de telles conditions peut permettre à  une entreprise de réaliser des économies substantielles qui résultent de plusieurs facteurs. « Les coûts de conception sont dominés par trois facteurs qui, sont, par ordre de grandeur, l'ingénieur, la licence de l'outil d'analyse et le matériel », détaille le responsable des ventes. Selon lui, les entreprises souhaitent réduire en particulier le coût d'ingéniering, soulignant que le temps d'attente lié à l'achèvement des analyses représente l'un des plus grands gaspillages en temps de travail. « Une ressource commune, centralisée, équipée d'un outil de planification décent élimine ce temps d'attente. L'analyse sur une machine HPC (en parallèle) accélère également les temps de rotation, de 10 à 50 fois au moins. »

Joe Frost fait aussi remarquer que la boîte HPC permet une utilisation plus efficace des licences. « De nombreuses entreprises pourront partager les licences d'analyse - celles-ci peuvent représenter chacune un coût annuel de 50 000 £ (environ 60 000 euros)- entre plusieurs ingénieurs », expose-t-il. « Le problème principal se pose notamment lorsque différents ingénieurs ont besoin d'utiliser les mêmes ressources au même moment, ou quand l'un d'eux monopolise une licence pour effectuer son travail. » Avec ce système de ressource centralisée dont on peut planifier correctement l'usage, les entreprises peuvent caler les travaux en fonction des licences disponibles. « Cela élimine le problème de licence, permet de les utiliser de manière intensive 24H/24, 7j/7, et de maximiser le retour sur investissement ».

Des ressources mutualisées plutôt des postes individuels

L'économie finale existe aussi sur le matériel lui-même. Comme l'a expliqué Joe Frost, la plupart du temps, les entreprises s'emploient à fournir des ordinateurs individuels de plus en plus puissants à leurs ingénieurs, des machines ayant jusqu'à 12 coeurs et dotées de 8 à 12 Go de mémoire vive. Sauf que, comme il le dit, « ces ressources sont des ressources individuelles, réservées à un ingénieur en particulier, avec un temps d'utilisation limité, estimé entre 20 et 50 %. Si bien que le déploiement d'un environnement informatique partagé de type HPC réduit les besoins en informatique desktop. » Les économies viennent du fait qu'il suffit de déployer une seule machine capable d'effectuer les traitements complexes, plutôt que d'équiper de machines individuelles, ce qui représenterait un coût minimum estimé de 6 000 £ (environ 7 000 euros) par poste de travail. En outre, ajoute Joe Frost, Dezineforce construit ses clusters sur une base matérielle standard offrant des performances similaires, à un coût beaucoup plus faible : « Nous comparons ici des supercalculateurs spécialisés à 48 coeurs avec des super-ordinateurs Dell avec 48 coeurs. »

Dezineforce a déjà travaillé avec l'entreprise de construction Arup sur un récent projet de climatisation pour un stade de 65 000 places au Moyen-Orient. Le principal défi consistait à éviter d'installer un système réglable sur chaque siège, ce qui aurait pu être nécessaire. « Arup avait besoin d'accéder à une informatique haute performance pour effectuer une analyse détaillée, et de réaliser des centaines de simulations avec le logiciel d'optimisation pour identifier la configuration la plus efficace », a déclaré Frost. « Le logiciel d'optimisation a aidé au processus de décision et permis de limiter le nombre de simulations nécessaires. L'une des principales difficultés était de pouvoir effectuer l'installation et la configuration dans les délais requis, ce que n'aurait pas permis un processus normal. La solution HPC de Dezineforce leur a fourni instantanément ce dont ils avaient besoin. »

L'offre de la société britannique (qui a pris racine à l'Université de Southampton), est déjà disponible en Europe et sera disponible aux États-Unis l'année prochaine. Dezineforce participe au programme Bizspark One de Microsoft.

Illustration : vidéo de présentation de l'offre sur le site de Dezineforce (crédit : D.R.) (...)

< Les 10 documents précédentsLes 10 documents suivants >