Flux RSS

Administration de serveurs

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

213 documents trouvés, affichage des résultats 41 à 50.

< Les 10 documents précédentsLes 10 documents suivants >


(23/11/2010 11:01:50)

Une architecture IBM pour accélerer la vitesse d'exécution des applications analytiques

Sur la conférence Supercomputing 2010 (13-19 novembre, Nouvelle-Orléans), IBM a annoncé avoir créé une architecture distribuée exploitant une technologie de système de fichiers réparti deux fois plus rapide que celles qui existent actuellement et qui comprend des techniques avancées de suivi des réplications de données (*).

Dénommée GPFS-SNC (pour General Parallel File System-Shared Nothing Cluster), cette architecture est conçue pour offrir une disponibilité élevée au travers de technologies avancées de clustering. Prasenjit Sarkar (en photo), ingénieur spécialisé dans le stockage des applications analytiques pour la branche recherche d'IBM (un collaborateur adoubé 'master inventor' par Big Blue), a expliqué à nos confrères de Computerworld que ce système montait en puissance de façon linéaire. Si un système de gestion de fichiers à 40 noeuds offre un débit de 12 Go par seconde, un système à 400 noeuds atteindra un débit de 120 Go/s, donne-t-il en exemple.  « C'est une bande passante très rentable, 1 Mo/s par dollar. Alors que si vous essayez d'obtenir la même chose avec un réseau de stockage, c'est beaucoup plus coûteux ».

Chaque noeud de l'architecture est auto-suffisant


La nouvelle architecture est conçue pour la prise en charge d'applications analytiques à haute performance et pour le cloud computing. Prasenjit Sarkar décrit GPFS-SNC comme une technologie où chaque noeud ou serveur x86 standard dispose de ses propres métadonnées, de son propre cache, et de ses outils de stockage et de gestion de données, tout en accédant aussi, en même temps, à chaque autre noeud dans la grappe à travers des ports Gigabit Ethernet.

« Ce que nous avons fait, contrairement au système de gestion de fichiers de Google [GFS**], qui a un noeud de domaine unique, c'est que nous avons distribué chaque aspect du système : les métadonnées, l'allocation, la gestion du verrouillage et la gestion des tickets (token management), explique-t-il. Même si vous détachez un rack de serveurs de la grappe, l'ensemble pourra néanmoins continuer à travailler ». En ne partageant rien (d'où la mention « sharing nothing cluster » figurant  dans le nom de la technologie), poursuit Prasenjit Sarkar, il devient possible d'atteindre de nouveaux niveaux de disponibilité, de performance et de montée en puissance avec le système de fichier en grappe. Chaque noeud dans l'architecture GPFS-SNC est également auto-suffisant. Les tâches sont divisées entre ces ordinateurs indépendants et aucun d'entre eux n'a besoin d'en attendre un autre, précise l'ingénieur d'IBM.

GPFS-SNC supporte Posix


Le code GPFS-SNC supporte aussi Posix, qui permet à un large éventail d'applications traditionnelles de fonctionner au-dessus du système de fichiers, et d'exécuter à la fois les opérations de lecture et d'écriture. « Vous pouvez ouvrir un fichier, lire un fichier, puis faire des ajouts et remplacer n'importe quelle section. Avec le système de fichier distribué Hadoop de Google, vous ne pouvez pas faire d'ajout à un fichier, ni réécrire une section. Vous êtes donc assez limité », pointe le master inventor d'IBM.

GPFS-SNC supporte la totalité des fonctionnalités de stockage de données pour l'entreprise, telles que la sauvegarde, l'archivage, la capture instantanée d'images (snapshot), la gestion du cycle de vie de l'information, le data caching, la réplication de données en réseau étendu et la mise en place de politiques de gestion. L'architecture dispose d'un nom de domaine logique unique, ce qui permet de transférer les machines virtuelles entre des noeuds d'hyperviseurs.

« Ainsi, par exemple, dans notre grappe, vous pouvez faire tourner Hadoop aussi bien qu'une base de données DB2 en cluster ou des bases de données Oracle, explique encore Prasenjit Sarkar. Nous pouvons de ce fait utiliser un système de fichier générique pouvant être exploité par une grande variété d'utilisateurs. »

Big Blue vise les applications Hadoop MapReduce


IBM n'a pas précisé quand le système de fichiers GPFS-SNC sortirait de ses laboratoires pour arriver sur le marché. En revanche, Prasenjit Sarkar a indiqué que lorsqu'il serait disponible, il viserait trois domaines : les entrepôts de données (datawarehouses), les applications Hadoop MapReduce et le cloud computing.

« Le cloud n'est pas naturellement une architecture parallèle, mais nous y trouvons des machines virtuelles sur chaque noeud d'hyperviseurs et de nombreux noeuds d'hyperviseurs en parallèle. Chaque machine virtuelle accède à son propre stockage de façon indépendante par rapport aux autres VM. Par conséquent, vous obtenez de nombreux accès parallèles au stockage ».

L'actuelle technologie GPFS d'IBM est au coeur des systèmes haute performance du constructeur américain, Information Archive, Scale-Out Network Attached Storage (SONAS) et Smart Business Compute Cloud. La capacité de la future GPFS-SNC à exploiter en temps réel des applications Hadoop sur un cluster a valu à IBM une distinction dans la catégorie « storage challenge » lors de la conférence Supercomputing 2010.

(*) Les tests ont été faits avec les benchmarks MapReduce sur un cluster de 16 noeuds avec quatre disques SATA par noeud pour comparer GPFS-SNC (pour General Parallel File System-Shared Nothing Cluster) et HDFS (
Hadoop Distributed File System).

(**) Google File System (GFS) est un système de gestion de fichiers développé par Google pour ses besoins. Il est conçu pour fournir un accès fiable aux données en s'appuyant sur d'importantes grappes de serveurs.

Illustration : Prasenjit Sarkar, ingénieur spécialisé dans le stockage des applications analytiques pour la branche recherche d'IBM (crédit photo : IBM)
(...)

(15/11/2010 17:40:38)

Enterasys lance un outil d'administration des datacenters virtuels

Enterasys Networks, filiale de Siemens Enterprise Communications, a dévoilé cette semaine un outil de management qui apporte une visibilité, de même que des fonctions d'automatisation et de contrôle aux ressources hébergées dans des centres de données virtuels. Le DCM (Data Center Manager) est la composante clé d'une stratégie relative aux datacenters, annoncée au début de l'année par l'éditeur. Celle-ci repose aussi bien sur l'intégration de partenariats auprès de plusieurs fournisseurs, que sur les capacités d'administration de ses commutateurs. « DCM est l'outil d'administration des commutateurs d'Enterasys qui fournit de la visibilité sur les différentes briques serveurs,  stockages et applications dans des environnements physiques et virtuels », a indiqué le constructeur. La solution fournit des informations à l'aide d'un outil qui suit et dresse un historique des mouvements d'une machine virtuelle, donnant aux utilisateurs l'assurance de la bonne allocation des ressources.

Regrouper des machines virtuelles selon différents rôles

Brocade et Cisco sont également capables de faire de même avec leurs solutions d'administration des datacenters et des  commutateurs. Le premier, grâce à  une offre baptisée Automatic Migration of Port Profiles, le second via un service qui est un composant intégral de sa plate-forme d'accès serveur/commutateur/réseau baptisée United Computing System (UCS). Les capacités de DCM et de ses produits concurrents donnent aux administrateurs informatiques la possibilité de regrouper des machines virtuelles selon différents rôles. La solution détecte les enregistrements et l'authentification des machines virtuelles, le contrôle d'accès, les tâches d'administration pour VLAN, les classe et la qualité des services, et enfin le contrôle du trafic du réseau. En utilisant le service d'Enterasys, les équipes IT peuvent avoir une vue du serveur virtuel et de l'environnement réseau. Un processus d'allocation unifié permet d'automatiser des règles individuelles sur des données variées au sein de fabric du commutateur.

La solution d'Enterasys fonctionne avec les produits de virtualisation des serveurs pour Citrix, Microsoft et VMware. Le logiciel est disponible dès à présent en deux versions : l'une basique, limitée à 10 hyperviseurs ESX de Vmware ou XenServer de Citrix et 100 machines virtuelles sur le réseau. La seconde, plus avancée, supporte jusqu'à 50 ESX ou XenServer pour 1 000 machines virtuelles.

(...)

(29/10/2010 16:20:02)

CA renforce son portefeuille d'outils d'automatisation

Si quatre de ces outils sont des mises à jour des solutions Automation déclinées en Workload, Virtual, Server et Client de CA, deux autres - Process et Configuration Automation - sont nouveaux. Les produits sont accessibles séparément, de manière à laisser aux entreprises la possibilité de réaliser des déploiements à la carte et à leur rythme, quitte à ajouter d'autres fonctionnalités par la suite. CA propose aussi trois formules sous forme de kits d'outils préintégrés.

A mesure que les entreprises augmentent leurs déploiements en matière de virtualisation et ajoutent des solutions cloud à leurs configurations, les équipes de management doivent affronter de nouveaux défis et les équipes informatiques sont sous pression en vue de l'automatisation des processus. « Les activités traditionnelles comme l'allocation serveur, la gestion et le suivi des performances, deviennent plus complexes dans des environnements virtualisés et de cloud, » explique Mary Johnston Turner, directrice de recherche pour les logiciels de gestion système chez IDC. « Les solutions d'allocation automatisée sont nécessaires pour aider les équipes IT à relever ces enjeux,»  souligne encore Mary Turner. « La suite CA Automation vise à répondre à plusieurs de ces exigences, tout en offrant aux clients des options pour une mise en oeuvre modulaire. »

Le service Process Automation permet de rationnaliser certains processus à travers des plates-formes, des applications et des groupes. Le logiciel comprend plus de 50 types de procédures prédéfinies, dont certaines développées par CA et d'autres par des vendeurs tiers comme IBM, BMC, Microsoft et VMware. Quant à Configuration Automation, qui effectue l'inventaire de l'environnement informatique, il comprend 1 000 modèles. « L'automatisation de la configuration des systèmes informatiques peut conduire à une plus grande standardisation des services, ce qui peut en retour aider les entreprises à réduire les temps d'interruption et à mieux respecter les politiques réglementaires et de sécurité, » explique CA.

A l'unité ou en package


Le module Workload, qui contrôle la répartition des charges de travail, peut être hébergé et géré à partir de plates-formes mainframe et distribuées. Elément nouveau, il permet désormais de planifier la charge de travail dans les clouds publics de type Amazon EC2, et de gérer les flux mixtes pour les ressources virtualisées. Sur le plan des infrastructures, Virtual Automation offre la capacité, grâce à un système intégré de réservation, « d'effectuer l'attribution de serveur virtuel en libre-service et de manière automatisé, » explique l'éditeur. Les fonctionnalités incluent le support de l'hyperviseur Hyper-V de Microsoft et de VPC d'Amazon. Server Automation gère le provisionnement, l'application de correctifs et le déploiement des applications et des services à travers les systèmes physiques et virtuels, en utilisant des modèles standards. Enfin, Client Automation (anciennement connu sous le nom de IT Client Manager) automatise les tâches de gestion client, notamment les hyperviseurs de type Bare Metal, la gestion des correctifs, les migrations de Windows 7. « Les nouvelles fonctionnalités incluent la gestion VMware VDI (Virtual Desktop Infrastructure) et des options de reporting avancées, » indique CA.

Pour les plus pressés, l'éditeur propose aussi des packages de services. Par exemple, Automation Suite for Hybrid Clouds comprend les outils à destination des environnements cloud privé et public. Il se compose de trois modules - Process, Server et Virtual Automation, ainsi que du logiciel Service Catalog.

Automation Suite for Data Centers, quant à lui, est destiné aux sociétés qui doivent gérer une infrastructure physique et virtuelle intégrée et démarrent dans le cloud computing. Le bundle, connu sous le nom de CA Spectrum Automation Manager, comprend pour sa part quatre modules: Configuration, Process, Server et Virtual Automation.

Le dernier bundle d'outils pré-intégrés, CA Automation Suite for Cisco UCS, offre les mêmes modules que ceux présents sont dans le pack Data Centers mais avec en plus des outils pour la fourniture et la migration des serveurs vers la plate-forme de l'équipementier américain.

(...)

(22/10/2010 16:06:22)

Conférence LMI/CIO : Innovations et défis 2011 de la DSI

Des compagnies d'assurances mobilisent la géo-localisation et le dialogue de machine à machine (M2M) pour créer des formules inédites d'assurance automobile. Les distributeurs d'eau ou d'électricité s'appuient sur les smart grid et les compteurs intelligents afin d'instaurer des usages et des modèles de tarification qui rentabiliseront mieux leurs réseaux.

Pour se renouveler, l'entreprise doit non seulement identifier ces nouvelles approches, mais aussi améliorer sa capacité à les mettre en oeuvre rapidement et efficacement. En première ligne, la DSI constitue le levier d'action de la direction générale et des métiers. Pour assumer ses responsabilités, elle sera amenée à opter pour de nouveaux modes de fonctionnement et à repenser ses relations avec les métiers.

La DSI doit délivrer rapidement les ressources et les applicatifs demandés avec la qualité de service attendue. Elle peut s'appuyer sur des offres packagées récentes telles que le SaaS ou le cloud computing accompagnées de nouvelles approches comme les méthodes agiles ou l'optimisation par le Lean. Sans oublier de tirer le meilleur parti de la convergence entre les réseaux informatiques, le stockage et la téléphonie - fixe et mobile -, la vidéoconférence en mode téléprésence tout en s'arcboutant sur des serveurs surpuissants au nombre de coeurs démultiplié qui devront être exploités au mieux par les applications critiques.

Venez discuter avec vos pairs le 23 novembre prochain

Pour discuter de ces thèmes, nous vous invitons à une matinée sur l'innovation et les défis de la DSI le mardi 23 novembre au pavillon Dauphine à Paris dans le 16e arrondissement.

Vous pourrez ainsi réfléchir aux avantages de la « Blue Ocean Strategy », aux moyens de transformer l'innovation IT en atout concurrentiel et de cultivez l'innovation IT avec des experts comme Jean-François Caenen, directeur de l'innovation chez Capgemini, des  témoignages de DSI et des tables rondes avec notamment : Christophe Bardet, directeur central marketing & développement de MMA, Patrick Hereng, DSI du groupe Total, Eric Legal, directeur d'Issy Media, Jean-Claude Saussaye, DSI de MMA, et Frédéric Tapissier, responsable études et développements à la direction des réseaux, de l'innovation et des nouvelles technologies de TF1.

Pour découvrir le programme détaillé et vous inscrire à cette conférence organisée par Le Monde Informatique et CIO cliquer sur ce lien.

(...)

(26/10/2010 16:39:18)

Mainframes : 57% des utilisateurs voient croître le nombre de Mips

Conduite auprès de 1 700 utilisateurs de mainframes, la dernière enquête réalisée par BMC Software montre d'abord que 84% des personnes interrogées s'attendent à voir progresser ou se maintenir le nombre de Mips (million d'instructions par seconde) sur ces plateformes. Ensuite, 57% estiment que ces environnements vont continuer à attirer de nouvelles charges de travail contre 4% seulement jugeant qu'ils ne sont pas viables et que leurs utilisateurs devraient songer à changer de stratégie dans les cinq ans. Un peu plus du tiers restant de l'échantillon (37%) considère qu'il s'agit d'une plateforme viable à long terme mais qu'elle se limitera aux applications existantes et n'en attirera pas de nouvelles.

Enquête BMC Software sur les mainframes
Cliquer ici pour agrandir l'image

Ceux qui augmentent leur consommation de Mips invoquent d'abord la disponibilité de la plateforme (74%) comme principale raison à cela, puis sa robustesse sur le plan de la sécurité (70%) et l'environnement centralisé qu'elle procure (68%). Ils jugent aussi qu'elle est mieux adaptée aux exigences des débits transactionnels (65%). Lorsqu'on leur demande quelles sont leurs priorités sur l'année qui vient, ils sont 65% à citer la réduction des coûts informatiques. Ils énumèrent ensuite la reprise après sinistre (34%), la modernisation des applications (30%) et l'alignement entre les activités métiers avec la IT (29%).

Des outils d'administration pour les plateformes mixtes

L'augmentation de la consommation de Mips est principalement causée par celles des volumes transactionnels sur les activités existantes (à 66%), par le développement de l'activité (63%) et, enfin, par l'augmentation des bases de données existantes (52%). Le transfert de nouveaux traitements vers les environnements zOS est également cité par 34% des personnes sondées.

Enquête BMC Software sur les mainframes
Cliquer ici pour agrandir l'image

Prêchant pour sa paroisse, BMC Software fait également apparaître la demande des utilisateurs pour des outils d'administration capables de prendre en charge des environnements mixtes faisant tourner à la fois z/OS et z/Linux, et éventuellement d'autres OS à venir. A ce sujet, son enquête détaille le recours aux processeurs spécialisés : zIIP (System z Integrated Information Processor) originellement utilisé pour les tâches liés à DB2 et qui s'est depuis étendu à d'autres domaines, IFL (Integrated Facility for Linux) pour les traitements sous Linux, et zAAP (System z Application Assist Processor) pour les flux Java et XML. Les utilisateurs de mainframes interrogés sont 32% à utiliser un ou deux processeurs zIIP, 20% à recourir à un ou deux processeurs zAAP et 29%, un ou deux processeurs IFL. De 7 à 9% exploitent 3 à 4 de ces processeurs, 5% de 5 à 8, 3% de 9 à 16 et environ 3% plus de 17. Ces moteurs ne sont pas tellement utilisés pour les nouvelles applications, rappelle BMC.

70% des personnes interrogées dans le cadre de cette enquête appartiennent à des entreprises situées sur le continent américain, 21%  sont installées sur la zone EMEA et 9 en Asie Pacifique. Un tiers ne sont pas des clients de BMC Software. (...)

(12/10/2010 14:05:20)

Un PCA de longue haleine pour la Compagnie Nationale du Rhône

Deuxième producteur français d'électricité, la Compagnie Nationale du Rhône (CNR) fait partie du groupe GDF Suez. En début de cette année, elle a validé son Plan de continuité d'activités (PCA) dont le développement a été lancé en 2007. Pourquoi un PCA ? La plupart des revenus de la CNR sont issus de la production et de la vente d'électricité. Le moindre impact sur les activités opérationnelles peut entrainer un coût de plusieurs millions d'euros. A ces risques, vient s'ajouter le risque juridique lié à une éventuelle interruption des activités opérationnelles. Dans ce contexte, la CNR a démarré la réflexion sur la mise en oeuvre d'un Plan de Continuité d'Activité dès 2007. Elle a lancé un appel d'offres sur le sujet en février 2007.  Puis, le projet va suivre cinq étapes majeures qui vont s'étaler de février 2007 à janvier 2010.

La première phase (février-avril 2007) est consacrée à la cartographie des processus et au bilan d'impact sur l'activité. D'avril 2007 à novembre 2007, ce sont les aspects formations et continuité métier qui sont abordés. Cela recouvre la gestion de crise, la continuité métier, la relocalisation et le maintien en conditions opérationnelles. De début 2008 à la mi 2009, le plan de continuité du système d'information est progressivement mis en oeuvre. Il est testé intégralement fin 2009.

Un incident grave simulé pour test

En Janvier 2010, la décision est prise de tester en situation réelle le Plan de Continuité d'Activité. Un incident grave est simulé avec l'arrêt des activités et une coupure d'alimentation électrique du siège social. Les équipes opérationnelles et techniques nécessaires au bon fonctionnement des activités stratégiques de la CNR (traders, back-office, middle-office, opérateurs de télé-conduite, système d'information) sont basculées sur un site de repli.  Le test dure une journée complète sur le site de repli, puis au bout de 24h, le rapatriement sur le site d'origine s'est opéré sans incident.

Une telle mise en place permet à la CNR d'améliorer des éléments clés de la gouvernance de l'entreprise. La compagnie dispose d'un pilotage par le management des risques au niveau du comité de direction. L'outillage des processus de gestion des risques et de crise est effectivement en place et testé.

Un projet pilote pour GDF Suez

Au niveau organisationnel, des ajustements au sein de la structure ont été nécessaires. Il a fallu assurer la polyvalence des fonctions et former les couches d'encadrement à la gestion de crise. Les processus de l'entreprise ont été redéfinis dans l'objectif de s'adapter à un environnement hostile lors de confrontations à des sinistres majeurs. Le système d'information maintenant en place est tolérant aux pannes et fonctionne en haute disponibilité.

Ce projet fait de la Compagnie Nationale du Rhône un pilote au sein du groupe GDF Suez pour tout ce qui concerne la continuité d'activité. C'est le cabinet Lexsi qui a été retenu afin d'accompagner la CNR lors du développement et du déploiement de ce PCA.
(...)

< Les 10 documents précédentsLes 10 documents suivants >