Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 801 à 810.
| < Les 10 documents précédents | Les 10 documents suivants > |
(25/02/2010 16:10:41)
CA affine sa stratégie cloud en rachetant 3Tera
A ceux qui doutent des projets de CA dans l'environnement « nuage informatique », l'éditeur américain vient d'ajouter une nouvelle brique à sa stratégie cloud. L'acquisition de 3Tera apporte la solution AppLogic assurant la migration en douceur du cloud privé à la version publique. Cette opération succède aux rachats de Cassatt l'été dernier et Oblicore en début d'année. Elle sera effective d'ici quelques semaines. Pour Jay Fry, Vice-Président de la branche stratégie de CA , « le plus intéressant avec 3Tera est d'apporter à nos clients la possibilité de prendre leurs applications existantes et de les porter ensuite sur un cloud privé ou public, via une interface élégante (sic) ». Pour James Staten, analyste principal de Forrester Research « avec les solutions de 3Tera, l'éditeur ne devrait pas uniquement s'adresser aux fournisseurs de contenus, mais également à d'autres clients entreprises qui souhaitent convertir leur infrastructure interne virtuelle dans un environnement cloud » et d'ajouter « que cette orientation amènera l'éditeur américain à travailler sur d'autres solutions concurrentes de celles de VMware par exemple ». Les analystes rappellent également que les offres de 3Tera sont limitées à la plateforme Xen, utilisée par Amazon. Mais les responsables de CA indiquent que la compatibilité avec les solutions VMware et Hyper-V de Microsoft est à l'étude et devrait intervenir très rapidement. (...)
(24/02/2010 13:00:57)Double-Take prend pied dans le Cloud
L'éditeur de logiciels de réplication va proposer à ses clients une option de cloud public. Celle-ci sera basée sur le service web d'Amazon qui offre un service de sauvegarde des serveurs sur le nuage. La solution Double-Take utilise donc ses applications de réplication adaptées à l'environnement du nuage informatique. Les clients pourront récupérer leurs données, leurs systèmes d'exploitation et leurs applications en cours avec un minimum d'interruption de service. Peter Laudenslager, directeur senior de la division Recovery Cloud de Double Take souligne que « les logiciels établissent un lien direct entre nos clients et le nuage en ne payant que la capacité qu'ils utilisent. Un mode de facturation qui représente des économies. ». Il se veut aussi rassurant en expliquant qu'« Amazon fonctionne sur Xen, mais cela est sans incidence sur nos clients qui travaillent sur VMware ou Hyper-V ». Le prix de l'option cloud de Double-Take est de 150 dollars par serveur et par mois, auquel il faut ajouter le coût du composant Amazon soit 100 dollars par mois. Enfin, le stockage est évalué de 20 à 25 cents par Gigabit par mois. Les prix européens seront dévoilés plus tard dans l'année. (...)
(15/02/2010 17:33:36)Avec Cyclone, SGI invite au calcul scientifique dans le cloud
Sous le nom de Cyclone, SGI vient de lancer une offre de cloud computing reposant sur ses technologies de supercalculateur et spécifiquement consacrée à des applications techniques et scientifiques. Le constructeur, racheté au printemps dernier par Rackable Systems, met ainsi à disposition une puissance de calcul à la demande qui s'exploite suivant deux modes. D'une part, les entreprises peuvent louer du temps de calcul pour faire tourner leurs propres applications sur les technologies HPC de SGI. D'autre part, elles peuvent accéder sur Cyclone à une quinzaine d'applications scientifiques parmi les plus utilisées dans le domaine de la mécanique des fluides et du calcul de structure (OpenFoam, Numeca, Acusolve, LS-Dyna), de la modélisation moléculaire (Gaussian, Gamess, Namd, Gromacs, Lammps), de la biotechnologie (Blast, Fasta, Hmmer, ClustalW) et du Web sémantique (OntoStudio). « Cette puissance de calcul à la demande répond à des besoins bien identifiés, explique Patrice Gommy, directeur marketing de SGI France. Elle vise à la fois les entreprises qui ne peuvent pas investir dans des technologies de supercalculateur et celles qui sont déjà équipées mais qui, pour une étude particulière, doivent accéder à une puissance 'pic' à un moment donné ». Un service tarifé un dollar l'heure de processeur HPC L'heure de calcul sur Cyclone est facturée un peu moins d'un dollar par processeur. Sur cette base, on peut estimer par exemple qu'il en coûtera mille dollars pour exploiter en environnement HPC la capacité de mille processeurs pendant une heure. Les offres de calcul à la demande existent depuis longtemps. Mais, « jusqu'à présent, la puissance de calcul en ligne était généralement réservée à certains utilisateurs, dans certains centres de recherche notamment », précise Patrice Gommy. Avec cette offre de cloud, toute entreprise peut maintenant y accéder. A noter qu'en France, Bull prévoit lui aussi de lancer cette année des services de calcul à la demande sur HPC dans le cloud. Voilà déjà quelques années que SGI pensait à fournir ce type de service. Le rapprochement avec Rackable Systems, spécialistes des datacenters, a accéléré le mouvement. « Nos technologies sont très complémentaires », souligne le directeur marketing de SGI France, qui rappelle que les datacenters de Google, Youtube et Facebook reposent sur les serveurs de Rackable, de même que les cloud Azure de Microsoft et EC2 d'Amazon. Mémoire partagée, mémoire distribuée et clusters GPU Quant à la technologie SGI utilisée pour Cyclone, elle va permettre d'accéder à trois types d'architecture, explique Patrice Gommy. Suivant la nature de ses applications, le client retiendra celle qui lui apportera des performances optimisées. «Pour les applications ayant d'importants besoins en mémoire (de 1à 4 To), les clients s'appuieront sur une machine SMP à mémoire partagée, typiquement, par exemple, dans le domaine de la modélisation moléculaire.» A l'inverse, si la nature de l'application requiert plutôt d'optimiser les échanges entre processeurs, Cyclone propose des architectures à mémoire distribuée avec des noeuds de clusters interconnectés en technologie QDR Infiniband ou Gigabit Ethernet. Par ailleurs, Cyclone va aussi permettre aux entreprises qui le souhaitent de tester leurs applications avec des processeurs graphiques, dans une architecture hybride, connectant un cluster classique à des clusters de type GPU. Conçus pour le traitement de l'image et la visualisation, les GPU apportent dans certains cas des puissances de calcul très supérieures aux processeurs classiques pour autant que les applications aient été redéveloppées pour en tirer parti. « Mais toutes ne s'y prêtent pas, rappellent Patrice Gommy. Certains clients prêts à investir sur ce terrain nous ont donc demandé, auparavant, de leur mettre à disposition des architectures de types GPU afin d'y valider leurs applications ». Cette offre de cloud computing repose sur deux datacenters installés aux Etats-Unis, l'un situé en Californie, au siège de SGI, l'autre dans le Wisconsin. (...)
(12/02/2010 14:38:50)Annuels Bull : les ventes de matériel et l'infogérance ont tiré le chiffre d'affaires
Le groupe français Bull a achevé son année sur un chiffre d'affaires consolidé en retrait de -2% par rapport à l'an dernier mais en légère progression (+0,3%) sur ses activités principales, souligne Didier Lamouche, son PDG. Le dirigeant insiste aussi sur la rentabilité opérationnelle qui dépasse les attentes, avec un bénéfice d'exploitation atteignant 27,6 M€, alors que l'objectif annuel était fixé à 25 M€. « Notre activité est stable, notamment par comparaison avec certains de nos concurrents ». Le PDG confirme comme prévu la remontée des commandes sur la fin de l'année, après le « trou d'air » subi au troisième trimestre. « Nous attendions +13%, nous avons eu +19% sur les prises de commandes ». En 2009 et sur le quatrième trimestre, ce sont les ventes portant sur l'offre de matériel et sur l'offre Extreme Computing (supercalculateurs) qui ont tiré le chiffre d'affaires. Ces activités ont progressé de 5,8% à 357,7 M€ sur l'année (32,2% du chiffre d'affaires global). Les activités Services et solutions (43,5% du CA) et Maintenance (17,3% du CA) ont de leur côté respectivement baissé de 2,23% et 2,88% sur l'année. Pour 2010, malgré la remontée des commandes, le groupe n'attend « pas de reprise de la conjoncture économique avant le second semestre ». Les premières offres communes avec Amesys, spécialiste des systèmes critiques, rachetées en novembre dernier, seront disponibles à partir du milieu de l'année. Amesys a développé une expertise combinée de l'électronique et de l'informatique, principalement sur les secteurs de la Défense et de l'aéronautique, des télécoms, des transports et de l'énergie.
50% de croissance sur l'offre d'Extreme Computing
Sur les ventes de matériel, le PDG de Bull avance deux motifs de satisfaction sur l'exercice écoulé. « D'une part, nos offres de serveurs 'legacy' GCOS et Unix ont été très stables, d'autre part, notre offre Extreme Computing a crû d'environ 50% et nous espérons une croissance équivalente en 2010. Nous comptons atteindre 15% de ce marché en Europe en 2010. » Didier Lamouche ajoute que l'activité de stockage sécurisé deBull a également progressé, sur un marché en décroissance. Sur le terrain des supercalculateurs, au quatrième trimestre, Bull a été retenu par le pétrolien brésilien Petrobras : « Nous leur avons vendu en décembre le plus gros système d'Amérique du Sud, d'une puissance de 250 Teraflops ».
[[page]]
Sur le trimestre, des contrats ont également été signés avec le secteur de la Défense, en France et au Royaume-Uni. Didier Lamouche indique que la nouvelle de famille de supercalculateurs éco-efficace, Bullx, lancée en juin, a été remarquée par le magazine américain HPCWire parmi les cinq technologies à suivre en 2010. « Nous sommes redevenus un acteur européen majeur de l'économie numérique. Ce n'était pas le cas il y a cinq ans », rappelle le PDG. Il cite aussi en exemple le récent film d'animation, Planète 51, produit par Ilion Animation Studios, dont le rendu graphique a été optimisé sur une ferme de serveurs mise à niveau avec l'offre Extreme Computing de Bull.
En 2010, une offre de calcul à la demande autour du HPC
Sur la partie services, au quatrième trimestre, l'activité d'infogérance de Bull a remporté un contrat important avec un producteur de papier australien. « Nous avons signé le 24 décembre avec PaperlinX qui a 'outsourcé' auprès de Bull l'informatique de ses seize filiales européennes, explique Didier Lamouche. Il s'agit d'un contrat de cinq ans qui va nous conduire à rationaliser leur informatique sur deux datacenters au lieu de seize ». Le PDG rappelle aussi que Bull est l'hébergeur du portail de l'administration française Mon.service-public.fr. En 2010, parmi les vecteurs principaux de progression figurent l'Extreme Computing et l'infogérance. Le groupe va mettre en production un datacenter dans l'Ouest parisien, qui va héberger toutes ses nouvelles technologies de HPC. « Nous voulons fournir une offre de cloud computing dédiée au HPC, explique Didier Lamouche. Il s'agira d'une solution de puissance de calcul à la demande ». Des services de cette nature existent déjà, mais réservées à certains clients (Renault, par exemple). La nouvelle offre pourra s'ouvrir aux PME. Le groupe va par ailleurs embaucher 600 personnes, dont 250 en France, sur le développement de logiciels, l'intégration de systèmes et sur les offres communes prévues avec Amesys. Le fournisseur continuera à faire croître ses efforts de R&D. Il prévoit notamment de livrer deux nouvelles offres sur l'Extreme Computing. (...)
TechDays 2010 : Orange Business Services distribuera Microsoft Online Services sur son cloud (MAJ)
Les opérateurs télécoms sont en mode offensif sur les services collaboratifs en ligne à destination des entreprises. Pendant les derniers TechDays (du 8 au 10 février), Orange Business Services a ainsi dévoilé un accord de distribution portant sur la suite Microsoft Online Services en version standard. Cette dernière comprend plusieurs outils comme Exchange Online (messagerie), Office Communications OnLine (bureautique), SharePoint Online (portail collaboratif) et Office Live Meeting Online (Webconferencing). Cette offre vient compléter la gamme actuelle de l'opérateur, baptisée « Business Together with Microsoft ». Dans un premier temps, cette suite sera distribuée auprès des grands comptes et des grands entreprises(à partir de 150 utilisateurs), mais Jean Pierre Savi, directeur marketing opérationnel IT d'Orange Business Services nous a indiqué qu'« une offre couplée accès et suite collaborative à destination des PME sera disponible à la fin de l'année 2010 » L'accord signé s'étend à la France, mais également à l'international sur 21 pays avec une extension prévue. Stratégiquement, Orange Business Services conforte sa volonté de devenir un acteur majeur du cloud computing à travers son expertise d'opérateur de réseaux, mais également d'intégrateur de services. Cette démarche guide aussi Orange Business Services dans son ambition de devenir un « guichet unique » auprès des entreprises pour les problématiques de clouds privés et publics. On notera que Orange Business Services prévoit d'enrichir l'offre Microsoft Online Services avec des services complémentaires tels que l'archivage des données, l'optimisation et l'accélération du réseau ou encore le portail utilisateur pour les grands comptes. Le périmètre de distribution devrait être étendu vers les PME prochainement. (...)
(11/02/2010 11:39:07)Oracle lance son tour du monde du cloud
Ce world tour est en décalage avec les critiques faites publiquement par Larry Ellison à propos du cloud, qu'il considère comme un habillage et un mélange de technologies existantes. Lors d'un récent webcast dans lequel des cadres de l'entreprise s'exprimaient sur la manière dont la société envisage d'utiliser les éléments acquis avec le rachat de Sun Microsystems, certains ont déclaré que l'objectif principal d'Oracle serait d'aider ses clients à construire des cloud privés. En 2008, Ellison avait lui-même déclaré, non sans ironie, qu'Oracle ferait dorénavant des publicités sur le cloud. « Si la couleur orange est la nouvelle couleur à la mode, nous allons faire des blouses oranges. Et je ne vais pas m'opposer à cela, » avait-il déclaré. « Peut-être que nous en ferons une pub. Je ne vois d'ailleurs pas ce que nous ferions de plus pour le cloud computing que de changer les mots de certaines de nos publicités... » Oracle serait donc cloud natif... Mais la tournée de démonstration va apparemment tenter d'aller plus loin en détaillant de manière approfondie ce qu'Oracle va précisément faire en matière de cloud, une appellation malmenée et utilisée à grande échelle, depuis la virtualisation, jusqu'aux infrastructures informatiques modulaires comme celles vendues par Amazon Web Services, et aux services SaaS (Software as a Service). Au minimum, ces conférences viendront «dissiper le brouillard» entourant le sujet, à mesure que les « experts d'Oracle » clarifieront la manière dont les entreprises peuvent profiter du « cloud». Parmi les sujets abordés, les participants pourront récolter des conseils sur l'élaboration d'un cloud privé, apprendre comment transférer des environnements informatiques actuels vers une structure équivalente de type cloud, et comment utiliser les options de cloud publics comme les AWS. « Oracle doit simplement satisfaire une demande en cloud public, tant les forces du marché vont dans cette direction, » a déclaré China Martens du cabinet d'analystes 451 Group. « Mais l'une des questions à laquelle la compagnie doit faire face, est de savoir comment elle va inclure dans ses plans les technologies Sun, et ce travail n'est probablement pas achevé, » a t-elle ajouté. L'entreprise a déjà fait clairement savoir qu'elle n'avait pas de proposition immédiate à faire à Amazon, dans la mesure où l'entreprise avait abandonné les projets de Sun pour créer un service de cloud public. Selon China Martens, Oracle a le temps de formuler sa réponse. « Quoi que dise Larry Ellison, cela va se passer en plusieurs actes. Parfois aussi, Ellison dit juste ce qui lui passe par la tête. Et Oracle doit faire marche arrière et tout reformuler. C'est ce qu'ils font, lentement et soigneusement, » dit-elle. «Oracle peut avancer selon son propre rythme, mais l'entreprise doit toutefois montrer qu'elle est à l'écoute du marché et qu'elle n'est pas isolée dans sa bulle. » (...)
(10/02/2010 17:21:56)Colt enrichit son offre cloud computing
Depuis juillet 2009, Colt, opérateur de réseau et de services télécoms a développé une plateforme de services cloud computing. Cette offre se décline en plusieurs briques, la première, baptisée Colt Managed Workspace est de type Saas (Software as a Service) avec l'accès à distance de fonctions applicatives reposant sur Sharepoint, Office, Visio, Project, Messaging ou Blackberry. La deuxième brique s'oriente vers le mode PaaS (Plateform as a Service), sous le nom Colt Cloud Infrastructures Services. Elle permet de disposer de serveurs dédiés, virtuels ou mutualisés et de capacités de stockage, s'adaptant aux besoins évolutifs des applications métiers. Enfin, la dernière brique qui vient d'être dévoilée, s'adresse aux besoins de Grid Computing des entreprises. Pour cela, Colt a noué un partenariat avec Tibco et plus exactement la solution DataSynapse (rachetée par Tibco pour 28 millions de dollars à la fin de l'année 2009). Cette dernière propose des outils de réservation et d'allocation dynamique des ressources matérielles et logicielles en environnement distribué. Au sein de cette dernière brique, on distingue en fait trois offres : - le Managed Grid Services qui est une solution d'infrastructure souple et dédiée, spécialement conçue pour les applications haute performance. - l'In Life Management Applications permet aux équipes informatiques de gérer un plus large éventail d'applications métiers et de définir des indicateurs spécifiques pour dimensionner dynamiquement leur infrastructure IT. - le Grid Extension-IaaS (Infrastructure as a Service) facilite l'extension en toute sécurité les capacités de plateformes existantes au sein d'entreprises, en permettant leur rattachement à un pool de ressources Colt à la demande. Pour Béatrice Rollet, directrice marketing de la division Colt Managed Services chez Colt France « les offres avec Tibco nous permettent de répondre à nos clients pour qui les problématiques transactionnelles, demandant une grande puissance de calcul dans un environnement de haute qualité de service, sont essentielles » et d'ajouter « les secteurs financiers et énergétiques sont très en pointe sur ces sujets, mais également les secteurs des services (jeux en ligne, grande distribution) ou des médias, à travers le passage au numérique ». (...)
(09/02/2010 17:41:53)Le Power7 d'IBM relance la bataille des puces pour systèmes Unix (MAJ prix)
« Cadencé de 3 à 4,14 GHz, le processeur Power7 sera livré avec 4, 6 ou 8 coeurs » a expliqué, lors d'une conférence de presse à New York le lundi 8 février, Ross Mauri, directeur de la division Power Systems d'IBM. Chaque coeur est en mesure d'exécuter quatre threads. Une puce Power7 huit coeurs est donc en mesure de mener 32 tâches simultanément, ce qui fait quatre fois plus que la génération précédentes Power6. Cette nouvelle génération de puces fait appel à un procédé de fabrication reposant sur la technologie 45 nm. IBM indique également que des améliorations ont également été réalisées au niveau de la mémoire pour permettre au processeur d'exécuter des tâches plus rapidement. Comme chez Intel, la puce d'IBM possède également une technologie baptisée TurboCore, qui permet d'augmenter temporairement la fréquence des coeurs actifs (quatre sur huit) pour gagner en performances. Cette technologie concentre également la mémoire et la bande passante sur quatre coeurs actifs pour suivre le rendement supérieur. Selon Ross Mauri, « les systèmes Power7 fourniront deux fois plus de performances que les anciens Power6 tout en consommant quatre fois moins d'énergie ». Une technologie pompeusement baptisée «Unique Intelligent Energy » permet d'éteindre les composants inactifs d'un serveur afin de réduire la consommation électrique. Cette fonction réduit également la vitesse d'horloge des processeurs d'une machine ou d'un ensemble de serveurs afin de diminuer la puissance consommée. Des machines disponibles très rapidement Suite à cette annonce, Big Blue a également lancé quatre serveurs Power7. Haut de gamme, les IBM Power 780 et Power 770 reposent sur une conception modulaire et sont livrés avec un maximum de 64 puces Power7. Le Power 755, destiné au marché des HPC, supportera quant à lui jusqu'à 32 Power7. La firme d'Armonk propose aussi la série 750 Server Express, un modèle rack 4U milieu de gamme. Les 750 Power Express et 755 seront disponibles le 19 février, tandis que les Power 770 et 780 seront à partir du 16 mars. 200 machines ont déjà été déployées chez des clients pour des premiers tests. Les prix de ces serveurs n'est pas encore connu, mais les représentants d'IBM France nous ont indiqué que leurs tarifs seraient compétitifs (voir mise à jour prix dans l'encadré). « Les serveurs Power7 offriront de meilleures performances et rentabilisent l'investissement réalisé par nos clients sur les systèmes Power6 existants », a déclaré Rod Adkins, vice-président des grands systèmes chez IBM. Si Big Blue a bien sûr qualifié sa puce Power7 « comme le processeur le plus rapide du monde », l'argumentaire marketing tournait également autour de la capacité à délivrer des performances « intelligentes », c'est-à-dire adapté aux besoins à un instant T. «Comme nous avons conçu ce système (...) Power7 pour les performances brutes mais vous verrez également une grande préoccupation autour ( ...) des performances intelligentes" souligne Rod Adkins. [[page]] Comme auparavant, ces serveurs pourront être animés par les systèmes d'exploitation AIX, i/OS (OS/400) et Linux, notamment les solutions entreprises proposées par Red Hat et Suse. En plus d'optimiser le parallélisme des applications maison telles que Websphere et Lotus Domino, IBM a également travaillé de concert avec SAP pour améliorer les demandes d'exécution multithread sur les coeurs Power7. EMeter, un éditeur qui propose des applications pour les compteurs intelligents connectés aux réseaux, a indiqué les serveur Power7 sont extensibles et capables d'analyser des données plus rapides que leurs prédécesseurs. Ces grands systèmes permettront à l'entreprise de relever les compteurs intelligents plus rapidement et introduire ainsi plus de souplesse dans la facturation des clients notamment avec les différences de tarifs horaires. Toujours grâce aux Power7, l'université de Rice a amélioré les rendements des calculs liés à l'analyse des données liées à ses recherches sur le cancer, a déclaré Kamran Khan, vice-président de l'université. Les 128 noyaux des systèmes Power7 sont en mesure de traiter les données plus rapidement, ce qui est essentiel dans certains domaines de recherche, comme le séquençage des génomes et la dynamique moléculaire (simuler par le calcul informatique l'évolution d'un système de particules au cours du temps), a déclaré Kamran Khan. En France, Thierry Meynlé de Divalto, travaille à l'optimisation des ses ERP pour PME-PMI pour la plate-forme Power7. Le middleware a été réécrit à90% pour tirer profit du multithread et améliorer la gestion de la mémoire. Avec Aix 6.1, les Power7 sont capables de traiter jusqu'à 128 threads, avec Aix 7 on passera à 1024. En attendant, Aix 6.1 est capable de dispatcher les threads pour équilibrer la charge de travail. Power7 contre Itanium 9300, les annonces se télescopent Le lancement de ces puces Power7 pourrait déclencher une nouvelle bataille sur le marché des processeurs haut de gamme où IBM retrouve ses challengers habituels, Intel avec son Itanium et Sun Microsystems avec son Sparc. Intel vient d'ailleurs de lancer son Itanium 9300 Tukwila qui équipera les serveurs haut de gamme Hewlett-Packard Integrity. Au cours du troisième trimestre2009, IBM était le leader sur le segment des grands systèmes : 31,8 % de parts de marché (en valeur), suivi par HP avec 30,9 %. Le marché des Unix - y compris le matériel et les applications - est considérée comme étal ou en baisse avec la progression des serveurs x86. Au cours du troisième trimestre 2009, le marché des systèmes Unix a diminué de 23,4 % (en valeur) par rapport au troisième trimestre de 2008 selon IDC. Mais selon Rod Adkins avec l'augmentation de la demande en matière de traitement des données, le besoin de serveurs Unix rapides et fiables va croître. «Le marché des Unix reste un marché très important et en bonne santé», souligne Rod Adkins. « Le marché va croitre de plusieurs milliards de dollars, et les systèmes Power continueront à dominer ce secteur. IBM fournit aujourd'hui des options de tarification plus agressives pour les serveurs Unix, ce qui pourrait mettre les systèmes Power7 en concurrence avec les serveurs de domaines «traditionnels», conclut-il. (...)
(09/02/2010 12:22:26)Cisco fédère et optimise les datacenters distants
Cisco dévoile des solutions dédiées aux datacenters pour faciliter l'interconnexion des centres de calculs distants et optimiser les ressources dans le cadre d'une stratégie cloud computing. Les produits concernés sont les commutateurs Ethernet, Nexus 7000 et, Catalyst 6500 et 4900M. Le premier est doté d'un système d'exploitation baptisé Overlay Transport Virtualization (OTV) qui facilite l'interconnexion entre des datacenters dispersés géographiquement, en optimisant le routage des adresses MAC. OTV encapsule et crée des tunnels Ethernet par un routage infrastructure de niveau 3, réunissant ainsi les différents datacenters dispersés au sein d'une seule entité logique. Les administrateurs réseaux peuvent ainsi gérer les charges de travail des différents centres de calculs sans avoir à redéfinir ou reconfigurer leurs networks. Cet élément trouve toute son importance dans la mise en place de solution de virtualisation, telle VMotion de VMware pour répartir les charges de travail entre des centres de calculs éloignés. Si d'autres solutions d'interconnexion des datacenters existent, comme l'utilisation de la technologie Pseudowire, dans le cas d'un réseau MPLS ou de fibre optique, OTV peut alors être utilisé comme facilitateur ou accélérateur de ces interconnexions. Il sera disponible sur le Nexus 7000 en avril prochain. Cisco indique qu'il étendra cette solution sur d'autres plateformes. Le routage en version XL En parallèle de cette annonce, Cisco indique que les commutateurs Nexus 7000 10 Gigabit Ethernet intégreront une licence logicielle évolutive en fonction de la taille de la table de routage et de la capacité des contrôles d'accès. Ces modules peuvent comprendre 8 ports 10 Gigabit Ethernet ou 48 ports Gigabit Ethernet avec une licence logicielle « XL » augmentant les entrées de la table de routage de 128.000 à 1 million. Le module 48 ports Gigabit XL, sera disponible en avril, au prix de 27.000 dollars. Aucun prix n'est encore annoncé pour le module 8 ports 10 Gigabit. Les prix sont en revanche connus pour les modules 10 GBase-T des commutateurs Cisco Catalyst 6500 et 4900M. Ainsi, pour le Catalyst 6500 avec un superviseur 720, le module 16 ports GBase-T coûtera 22 500 dollars. Il permet d'étendre de 100 mètres la connexion via la paire de cuivre entre serveurs et représente une alternative moins coûteuse à la connexion fibre basée sur le module 10 Gigabit du Catalyst 6500. Pour le Catalyst 4900M, serveur au sommet des baies, Cisco déploie un module de 8 Ports 10 GBase-T pour un prix de 3.500 dollars. Il permet également d'étendre la connexion des serveurs via la paire de cuivre à 100 mètres. Ces modules seront disponibles à second trimestre 2010. Accélération et optimisation en mode virtuel Avec le développement des stratégies de cloud computing, du mode Saas (Software as a Service) et de la virtualisation, Cisco répond aux besoins d'accélération et d'optimisation des applications. Il le fait à travers deux solutions. La première déjà disponible se nomme WAAS (Wide Area Application Services) qui intègre les applications dans l'environnement Cloud ou en mode SaaS, comme Cisco WebEx par exemple. Il se charge d'automatiser certaines règles de sécurité comme le cryptage SSL et d'optimiser la délivrance du service à l'utilisateur final. De son côté, ACE (Application Control Engine), dédié à la répartition de charge, intègre un module logiciel additionnel qui permet aux utilisateurs des solutions de virtualisation de VMware d'obtenir une surveillance plus efficace des machines virtuelles à partir de la console de supervision maison vCenter. Ce logiciel est essentiellement une interface de programmation (API) qui s'intègre dans la suite de gestion d'applications de Cisco (Application Networking Manager) avec l'outil vCenter. L'objectif étant pour les utilisateurs des différentes solutions de disposer d'un tableau de bord unique pour gérer la répartition des charges des différents serveurs. Cette évolution logicielle sera disponible au mois de mars. Enfin, Cisco annonce sa volonté de créer des modules dédiés à la technologie Fibre Channel sur Ethernet (FCoE) pour le Nexus 7000 et les serveurs de stockage MDS SAN dans la seconde moitié de cette année. Actuellement cette technologie est disponible sur le commutateur 10 Gigabit Nexus 5000. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |