Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 921 à 930.

< Les 10 documents précédentsLes 10 documents suivants >


(26/08/2010 16:05:00)

France-IX, une place de peering structurée à Paris

Depuis quelques années, les points de peering (point d'échange du trafic Internet des opérateurs ou fournisseurs de services) se trouvaient très dispersés dans la capitale. Après les études d'un groupe de travail, le projet France-IX a vu le jour en janvier 2010. Originalité par rapport aux plateformes existantes, il s'agit d'une association à but non lucratif qui regroupe Akamai, Jaguar Network, Neo Telecoms et Interxion. Elle est actionnaire d'une SAS (société à actions simplifiées) chargée des aspects opérationnels, techniques et commerciaux, explique Frank Simon, directeur général de cette entreprise. Il ajoute que « ce modèle existe à Londres (LinX), Amsterdam (AMS-IX ) et Francfort (DE-CIX) avec succès ».

Dans les premiers temps, France-IX a déployé les différents équipements de commutation sur les plaques des membres (Interxion 1, 2 et 5, Telehouse 1,2) de l'association. La mise en place de serveurs, ainsi que de l'administration s'est déroulée par la suite. Pendant cette phase de déploiement, la plateforme a offert ces services à ses membres « pour tester la qualité de service » souligne Franck Simon. La phase opérationnelle sera payante : 1500 euros de frais d'installation et une cotisation comprise entre 0 et 1900 euros mensuels selon les services. Ces derniers comprennent l'unicast ou le multicast IPv4 et IPv6, ainsi que des serveurs. L'association développe également son infrastructure pour répondre au marché des applications triple et quadruple play.

Développement des POP et décentralisation

France-IX a bénéficié de l'apport des points de présence de Panap, point de peering de Bouygues Telecom (hérité du réseau Club Internet). Près de 140 opérateurs s'appuyaient sur cette plaque et sont en cours de migration vers les services France-IX. Par ailleurs, une interconnexion avec SFINX de  Renater, réseau de l'Education Nationale, a été réalisée au mois d'août. Pour Franck Simon, la rentrée sera l'occasion de « consolider les points de présence sur Paris et d'en déployer d'autres, une dizaine de plus d'ici mi-2011 ».

Les yeux se tournent notamment vers Marseille, qui a l'avantage d'être très bien desservie par les câbles sous-marin, la reliant à l'Afrique et à l'Asie. Cette ouverture au trafic international est une forte ambition de France-IX qui entend bien redonner à Paris ses lettres de noblesse dans les échanges internationaux.

(...)

(26/08/2010 15:54:35)

Red Hat offre son API cloud comme standard ouvert du marché

"Nous ne voulons pas que Deltacloud soit sous le contrôle d'un vendeur en particulier, Red Hat compris. Si nous voulons accéder à une véritable interopérabilité et à une réelle portabilité, nous avons besoin d'un instrument de contrôle tiers," a déclaré Bryan Che, chef de produits cloud pour Red Hat, au cours d'une webcast pendant laquelle il a tracé la feuille de route de l'entreprise en matière de cloud computing. "Le manque d'interopérabilité entre les différents vendeurs de solutions cloud est l'une des préoccupations majeures des entreprises qui pèse dans leur décision d'adopter ou non le cloud," a souligné Gary Chen, directeur de recherche en logiciels de virtualisation pour l'entreprise chez IDC, lors d'une présentation qui a accompagné l'annonce de Red Hat.

Une ouverture progressive

C'est en septembre 2009 que Red Hat a lancé Deltacloud sous forme d'un ensemble d'API Open Source qui pouvaient être utilisées pour répartir les charges de travail entre différents fournisseurs de services cloud IaaS (Infrastructure-as-a-Service), comme Amazon et Rackspace. Afin de dispatcher la charge de travail entre les différents prestataires de cloud, les clients doivent pouvoir s'appuyer sur "une architecture et une pile compatibles avec le système qu'ils font tourner en interne," a déclaré Paul Cormier, président de Red Hat pour les produits et technologies. Pour encourager les contributions extérieures, Red Hat a cédé le code base de Deltacloud à l'Apache Incubator, un service de dépôts de logiciels qui, par la suite, peuvent éventuellement être supervisés par la Fondation Apache. L'éditeur a également créé le site APIwanted.org, sur lequel des parties tierces peuvent soumettre leurs suggestions pour des API supplémentaires ou signaler les fonctionnalités qu'ils souhaitent voir dans Deltacloud. Red Hat a également affirmé que, à part elle, d'autres entreprises participaient à l'élaboration de Deltacloud, ou l'utilisaient d'une manière ou d'une autre, citant notamment Cisco, Dell, Hewlett-Packard, IBM, Ingres et Intel. Red Hat a également annoncé qu'elle proposerait bientôt une solution de Plateform-as-a-Service construite autour de sa pile logicielle middleware JBoss.

D'autres alternatives pour un cloud ouvert

Mais Red Hat, n'est pas seul à s'être penché sur la question. Un certain nombre de fournisseurs de services cloud cherchent aussi des solutions. En juillet, Rackspace et la NASA ont entamé l'opération OpenStack pour collecter des logiciels Open Source développés pour le cloud computing. Plus tôt cette semaine, Eucalyptus Systems a lancé la version 2.0 de sa plate-forme cloud, qui utilise l'API AWS (Amazon Web Services). La société en a profité pour dire au passage que, en raison de sa popularité, l'AWS était devenu de facto un standard. 

C'est le Cloud Management Working Group, entité du DMTF, l'organisme chargé de superviser des normes comme le CDM (Common Diagnostic Model), DASH (Desktop and Mobile Architecture For System Hardware) et OVF (Open Virtualization Format), qui examinera la proposition de Red Hat en vue de l'adoption de Deltacloud en tant que standard.

(...)

(25/08/2010 15:09:19)

Vente de serveurs : plus forte hausse depuis 2003, selon IDC

Au cours du deuxième trimestre 2010, les ventes de serveurs au niveau mondial ont atteint leur plus forte hausse depuis 2003, selon IDC. Hewlett-Packard a même dépassé son rival IBM pour s'octroyer la première place parmi les vendeurs de serveurs. Pendant cette période, les recettes ont quant à elles augmenté de 11 %, à 10,9 milliards de dollars US. C'est le deuxième trimestre consécutif où les recettes du marché des serveurs augmentent, selon un rythme le plus rapide observé depuis 2003. «La croissance à laquelle nous assistons tient essentiellement à la hausse des volumes en entrée de gamme," a déclaré Jean Bozman, vice-présidente chargée de la recherche dans le domaine des serveurs d'entreprise, c'est à dire, selon la définition d'IDC, des systèmes coûtant moins de 25.000 dollars. « Malgré la forte croissance constatée au second trimestre, les recettes mondiales en terme de ventes restent encore en dessous des niveaux historiques enregistrés en 2008, en raison de la baisse à deux chiffres dont a souffert le secteur en 2009, » a pondéré Jean Bozman, rappelant les effets du ralentissement économique. «Mais les choses bougent dans la bonne direction, » a-t-elle ajouté.

+32% pour les serveurs d'entrée de gamme

La demande en systèmes de type entrée et milieu de gamme - qu'IDC classe dans la catégorie des serveurs coûtant entre 25 000 et 250 000 dollars - a été forte, avec une croissance en revenu de respectivement 32 et 16 % par rapport à la même période de l'année dernière, selon IDC. Au contraire, au second trimestre, la demande en systèmes haut de gamme, ceux dont le prix dépasse les 250 000 dollars, a fléchi, affichant une baisse de 27,2 % des recettes, soit la septième baisse trimestrielle consécutive constatée. « L'augmentation de la demande en serveurs milieu de gamme a été particulièrement remarquable, » a déclaré Jean Bozman. « Avec le haut de gamme, le milieu de gamme avait été l'un des secteurs les plus durement touchés par le ralentissement économique du fait du prix plus élevé de ces matériels, » a-t-elle commenté.

IBM souffre du renouvellement de ses gamme Power et Z

Les grands gagnants de cette hausse sont HP, en haut de l'échelle, et Dell, classé troisième, dont les recettes relatives à la vente de serveurs ont augmenté respectivement de 26 et 37 %. IBM, toujours second (Big Blue était déjà derrière HP au premier trimestre 2010), après avoir cédé sa première place à HP il y a un an, a, au contraire, perdu 3,2% de ses revenus au cours de ce deuxième trimestre. Pour HP, les recettes du trimestre provenant de la vente de serveurs ont atteint 3,5 milliards de dollars, contre 3,2 milliards pour IBM. La baisse de recettes d'IBM résulte en partie du ralentissement des ventes de ses serveurs Power et System Z, les clients ayant attendu la mise sur le marché des nouvelles versions de ces machines. «IBM a lancé un nouveau produit annoncé une semaine auparavant. Il y a donc eu un certain retard dans la demande de la part de leurs clients», a expliqué Jean Bozman, notant que cette sortie pourrait se traduire par une hausse des ventes d'IBM au cours du deuxième semestre de l'année. Mais la demande pour les serveurs IBM de type System X -  à base de processeurs x86 - est demeurée forte au cours du second trimestre.

Crédit photo : HP Proliant 560

(...)

(25/08/2010 14:33:22)

Wallix assure la sécurité des serveurs du Ministère de l'Ecologie

En 2009, un audit de la sécurité informatique du Ministère de l'Ecologie, de l'Energie, du Développement Durable et de la Mer a été mené par le cabinet Solucom. Il en est ressorti la nécessité d'améliorer la gestion des accès aux données sensibles (financières, contractuelles, relatives aux partenaires ou aux agents) et de mieux tracer les opérations effectuées dans le SI. Parmi les besoins exprimés, il y avait notamment la traçabilité totale et l'enregistrement des sessions d'administration sur les serveurs avec des données critiques ainsi que la traçabilité de toutes les opérations menées sur les équipements. Bien entendu, la solution cherchée devait être particulièrement souple et aisée à administrer.

L'administration des équipements et serveurs (essentiellement du Windows 2003 et 2008 ainsi que du Linux Debian) est réalisée par une douzaine de personnes en interne et trois en externe. La solution retenue a été un couple d'appliances en redondance l'une avec l'autre Wab (Wallix Admin Bastion) sur chaque site (site principal et un site distant). Le coût du projet n'a pas été précisé.
(...)

(25/08/2010 10:52:52)

Le logiciel de routage Vyatta certifié IPv6

La version 6.1 de la solution Vyatta (le nom signifie ouvert en Sanskrit) est désormais disponible en téléchargement sur le site Web de la société. Elle a reçu « IPv6 Ready Logo Phase 2 », une certification délivrée par l'IPv6 Forum. Cette approbation vise à assurer une migration en douceur vers IPv6, qui comprend un nombre presque illimité d'adresses pour les appareils connectés à Internet et dispose de fonctionnalités de sécurité plus avancée que le protocole actuel, IPv4.

Vyatta est basée sur les logiciels de routage et de la plate-forme de sécurité conçu pour être déployé sur des serveurs d'entreprise standard. Le logiciel de routage et de sécurité est gratuit, mais il existe aussi une version payante qui inclut certains éléments de gestion supplémentaires et des fonctions de sécurité. Il est offert à partir de 747 dollars. Il existe aussi des modules complémentaires provenant d'éditeurs tiers. Celui qui a été récemment ajouté à la version 6.1 comprend un abonnement à Sourcefire / Snort, une base de données sur la sécurité, à partir de 250 dollars par an.

Vyatta annonce le recrutement de 1 000 clients payants et la communauté d'utilisateurs est estimée à plus de 100 000 personnes dans le monde. Si la version payante du logiciel a été certifiée par le programme de tests d'interopérabilité et de conformité de l'Université du New Hampshire  pour le compte de l'IPv6 Forum, la version gratuite inclut également toutes les fonctions IPv6. Néanmoins, Tom McCafferty, vice-président en charge du marketing se veut rassurant « il n'y a pas de demande urgente pour la migration vers IPv6. Quelques clients au Japon et le gouvernement américain s'intéresse de près à cette évolution ».

Selon Matt Ford, de l'Internet Society, organisme qui tient à jour un compte à rebours sur la pénurie des adresses Internet « il ne plus que 550 jours avant l'attribution de toutes les adresses IPv4 non utilisées ».

La dernière version de Vyatta comprend également une passerelle vers le cloud de niveau 2, qui relie physiquement deux réseaux séparés sur Internet au sein d'un réseau Ethernet unique. Cette possibilité. Cette fonctionnalité permet aux entreprises et fournisseurs de services de déplacer des machines virtuelles entre les différents réseaux sans changer les adresses IP internes, explique Tom McCafferty. La société a également ajouté une correction automatique en cas de panne. On peut ainsi changer un serveur matériel par un autre tout en conservant des informations sur l'état du logiciel.

(...)

(24/08/2010 17:56:21)

Les puces Power d'IBM s'endorment avec économie

IBM développe un mode complémentaire à celui de la veille profonde pour ses processeurs Power qui leur permettront de ne rien consommer quand ils sont inactifs, a déclaré un ingénieur IBM lors de la conférence Hot Chips.

Les puces Power7 disposent déjà de trois modes de veille qu'il appelle la « sieste », le « sommeil »et le « sommeil lourd », et qui sont mises en oeuvre en fonction de multiples facteurs tels que la charge de travail ou le temps de latence tolérable avant que le processeur se remette en route.  La latence est un compromis pour chaque état de veille. Ainsi, la version sieste réduit la tension de 15% d'un coeur du processeur et la reprise d'activité est immédiate. Le mode sommeil lourd réduit de 85% la consommation électrique aux huit coeurs, mais a par contre besoin de 2 millisecondes pour réactiver la puce.

Le quatrième mode envisagé, sommeil profond, devrait couper complétement l'alimentation. Le temps de latence pour la reprise est évalué entre 10 et 20 millisecondes, explique Michael Floyd, ingénieur d'IBM. Le nom de code de cette innovation est « Winkle », en l'honneur d'un personnage de roman, Rip Van Winkle qui dormit pendant 20 ans avant de se réveiller pour trouver un monde complétement changé.  Michael Floyd n'a pas donné plus détail sur ce procédé, ni sur quelle puce, il intégrera cette méthode, « il est possible que cela arrive sur une mise à jour des Power7 ou peut-être attendre la gamme suivant Power8 ».

La consommation d'énergie sur les processeus IBM Power est gérée par un microcontrôleur qui rassemble des données provenant de 44 capteurs sur chaque puce, ainsi que d'autres capteurs dans le système. Il compile ces informations pour trouver la tension optimale et la vitesse d'horloge d'un processeur à un moment donné.

(...)

(24/08/2010 17:38:38)

Avec l'architecture Bulldozer, AMD mise sur les unités de calcul nombres entiers

Attendus en 2011, les processeurs basés sur l'architecture Bulldozer comprendront plusieurs coeurs et seront jusqu'à 50% plus rapides que les puces actuelles (Magny-Cours) reposant sur le design K10, a déclaré Dina McKinney, vice-présidente en charge de l'ingénierie chez AMD. Si la nouvelle architecture améliore significativement les performances, elle apporte également une plus grande flexibilité dans la façon dont les tâches sont exécutées dans les coeurs de processeurs. Les CPU de la famille Bulldozer seront destinés aux serveurs comme aux ordinateurs de bureau, précise encore la dirigeante. Les premières puces, connues sous le nom d'Interlagos, devraient toutefois être réservées aux serveurs et comprendront de 12 à 16 coeurs par socket.

Moins d'unités de calcul en flottant

Les concepteurs de puces comme Intel et AMD ont toujours amélioré les performances des processeurs en ajoutant des coeurs, en augmentant la fréquence d'horloge, ou en améliorant les capacités de traitement parallèle (multithreading). Un autre élément a toutefois été particulièrement soigné dans l'architecture Bulldozer : il s'agit de l'optimisation des liens et des échanges entre les différents coeurs et les autres composants internes du processeur. Prenant en compte la montée en puissance des GPU, notamment sur le marché des HPC, AMD a choisi de privilégier au sein de ses nouveaux processeurs, les unités dédiées aux calculs sur les nombres entiers au détriment des unités dédiées aux calculs flottants. Ainsi à la différence des architectures plus classiques, un processeur de la famille Bulldozer est composé de 1 à 8 blocs, chaque contenant deux coeurs dédiés aux entiers contre un seul coeur pour les flottants. Selon le Californien, il s'agit du meilleur compromis entre le nombre de transistors et la capacité de calcul. Les coeurs sont principalement dédiés aux tâches les plus courantes, tandis que les composants partagés tels que l'unité de virgule flottante ne sont utilisés que lorsque c'est vraiment nécessaire. Plus petites, car elles nécessitent moins de composants, les puces sont au final moins gourmandes en énergie. Avec une même quantité de courant électrique, AMD estime que le rendement d'un processeur Bulldozer sera jusqu'à 50% supérieur à celui d'un Opteron Magny-Cours avec 12 coeurs.

Des processeurs plus spécialisés

Dans le passé, les fondeurs axaient le développement de leurs puces autour des seules performances, mais les temps changent, explique Jim McGregor, analyste chez In-Stat. Les processeurs sont désormais conçus pour répondre aux exigences nouvelles de l'informatique pour des applications comme les bases de données ou les services Web, souligne l'analyste. Les demandes ne sont plus les mêmes pour les serveurs : certains recherchent plus de performances en virgule flottante et d'autres une meilleure bande passante pour la mémoire. 

Ces puces devraient aider AMD à élargir son offre pour serveurs et à conquérir de nouveaux marchés. La condition sine qua non pour résister à la féroce concurrence d'Intel, qui domine le segment des processeurs X86 pour serveurs. «Comment vont-ils faire contre Intel ? C'est difficile à dire," poursuit Jim McGregor. Au deuxième trimestre 2010, Intel possède 93,5 % du marché des processeurs pour serveur, tandis que la part d'AMD est descendue à 6,5 %, selon une étude 
publiée la semaine dernière par IDC. 

Mais les constructeurs de serveurs ont appris à bien travailler avec AMD, et les nouvelles puces du Californien de Sunnyvale devraient facilement trouver leur place, estime l'analyste. Les principaux fournisseurs de serveurs, - Hewlett-Packard, Dell et IBM, qui proposent tous les trois des systèmes sur base AMD Opteron, n'ont pas encore dévoilé leur intention quant à l'adoption de la nouvelle architecture Bulldozer d'AMD.

Illustration : Architecture de la plate-forme Bulldozer d'AMD

(...)

(24/08/2010 16:14:24)

HDS repêche discrètement ParaScale

Quelques lignes sur le blog de Miki Sandorfi responsable des fichiers et des services de contenus chez HDS ont permis de savoir que le spécialiste du stockage s'était emparé de ParaScale. Inutile de taper son nom sur Google, le résultat aboutit à une page vide. Il faut dire que cette société a fermé au mois de juin dernier, faute d'avoir pu boucler son second tour de table. Hitachi Data System récupère donc les brevets, ainsi qu'une équipe d'ingénieurs travaillant sur la solution.

Le service ParaScale Cloud Strorage facilite la création, la gestion et le provisionnement d'un cloud de stockage. Pour Mike Sandorfi, cela répond exactement à la philosophie du cloud ou de l'utilisation à la demande de capacité de stockage. « Tout le monde n'a pas besoin d'avoir la même taille et le cloud n'est pas un produit unique ».

Aucun montant n'a été indiqué sur l'opération.

(...)

(24/08/2010 14:54:48)

Entretien Jerry Kennelly, PDG de Riverbed Technology

Riverbed est un acteur dominant de l'optimisation du WAN mais le danger est de devenir une entreprise qui n'a qu'une corde à son arc. Comment pouvez-vous élargir la portée de votre entreprise ?

Jerry Kennelly : Ce que nous faisons réellement est l'accélération de la couche applicative 7 et ceci a des conséquences beaucoup plus profondes que le simple fait de rendre une ligne télécoms plus rapide et moins coûteuse qu'elle ne l'était. C'est quelque chose qui change la nature de l'infrastructure IT globale pour toutes les grandes entreprises mondiales. Tout le monde aime avoir des liens plus véloces, pour économiser de la bande passante. Cependant, il est moins coûteux de faire de l'optimisation et de la compression à travers le réseau que d'acheter des liens plus rapides. Cette solution a été utilisée aussi pour la consolidation de centres informatiques, ce qui aboutit à déménager tous les serveurs et l'infrastructure IT hors des bureaux distants des entreprises et des multiples centres informatiques, vers uniquement un ou deux centres globaux. Cette tendance a beaucoup contribué à notre croissance au cours des trois dernières années. Nos produits ont rendu cela possible car on ne peut pas faire de consolidation de datacenter à moins de délivrer des performances satisfaisantes.

Il y a environ six mois, nous nous sommes aperçus que ce que nous faisions en consolidant, c'est de créer des clouds privés. Donc, nous avons effectivement pénétré le marché du cloud. Autre conséquence, si vous vous reposez sur notre technologie pour construire un cloud privé, la version publique se fera aussi avec les mêmes solutions. Les plus grandes entreprises mondiale, fournisseurs de services ou intégrateurs de systèmes nous demandent "Comment pouvons-nous créer notre propre infrastructure cloud dans le futur ?"

Parlons de Cisco. Comment faites-vous pour concurrencer une entreprise qui a une si large gamme de produits et un très bon soutien de ses clients ?

Jerry Kennelly : Cisco est très présent sur la couche 2 et 3 du réseau, mais aujourd'hui l'action est moins sur ces  couches mais beaucoup plus sur celles de 4 à 7 (transport, session, présentation et application). Cisco est le roi des niveaux 2 et 3 et nous sommes les rois des couches 4 à 7.

Au bout du compte, tout dépend du produit. Si vous avez le bon produit, vous avez une chance de réussir. Le fait que Riverbed existe et dispose d'une plus grande part de marcgé que Cisco, prouve seulement à quel point nos produits sont appréciés. Car si ce n'était pas le cas, nous aurions mordu la poussière il y a longtemps. Cisco n'a pas d'expertise dans la couche applicative. Personne ne peut tout faire, être bon dans tous les domaines, pour toujours. Après avoir concurrencé Cisco durant 9 ans, je peux vous dire que ce ne sont pas des surhommes.

Pour lire la suite de l'entretien, cliquez ici (...)

< Les 10 documents précédentsLes 10 documents suivants >