La question du moment
En matière de monitoring, avez-vous déployé des outils d’observabilité offrant une meilleure visibilité sur les environnements hybrides ?

Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 21 à 30.

< Les 10 documents précédentsLes 10 documents suivants >


(03/04/2012 13:40:07)

Amazon ajoute le streaming live à son offre CloudFront

Jusqu'à présent, le service web CloudFront d'Amazon permettait aux entreprises de distribuer du contenu, comme des images, des vidéos, des fichiers multimédias ou encore le téléchargement de logiciels. Pour améliorer ses performances, CloudFront s'appuie sur un réseau de sites répartis dans plusieurs zones géographiques en Asie, en Europe, en Amérique du Sud et aux États-Unis

L'ajout de la fonction Live Smooth Streaming dans Amazon CloudFront va permettre aux entreprises de diffuser du contenu en direct sur le web pour les clients Microsoft Silverlight et les terminaux sous iOS. Pour fonctionner, le système travaille avec les formats Live Smooth Streaming de Microsoft et HTTP Live Streaming (HLS) d'Apple. Les contenus Live Smooth Streaming sont envoyés aux clients en plusieurs fragments qui peuvent être mis en cache sur les différents serveurs CloudFront.

Adaptation du débit 

Les clients ont la possibilité de contrôler dynamiquement le réseau et de voir son état au niveau local. Ainsi, lorsque le débit du réseau devient insuffisant, les clients peuvent immédiatement demander à ce que le fragment suivant soit envoyé à un débit plus faible pour tenir compte des conditions techniques. Selon Amazon, cela permet aux clients de lire les médias sans à-coups, sans temporisation et sans geler le flux.

Les entreprises peuvent installer une version encodée de leur flux direct dans une instance Amazon EC2 (Elastic Compute Cloud) tournant sous Windows IIS Media Services. Quand les téléspectateurs appellent le flux direct, CloudFront prend le contenu dans l'instance Amazon EC2, le met en cache dans les serveurs localisés à proximité de la demande et l'envoie aux clients. Selon Apple, le format HLS permet aussi d'ajuster dynamiquement la qualité de lecture d'un film en s'adaptant à la vitesse maximale disponible sur des réseaux filaires ou sans fil. Pour diffuser du contenu HLS en streaming, il est possible d'utiliser la version 4.5 de Flash Media Server d'Adobe et de la faire tourner sur EC2.

Diffuser un événement en direct

Selon Amazon, la même configuration de base sert pour les deux formats. Pour simplifier l'utilisation de Live Smooth Streaming pour Amazon CloudFront, le fournisseur de services a créé un modèle CloudFormation qui fournit les ressources nécessaires pour diffuser un événement en direct, comme l'a précisé Amazon.

Les tarifs de CloudFront sont fonction du transfert de données au niveau régional vers les serveurs localisés d'Amazon, du nombre de requêtes HTTP et du taux d'invalidation de requêtes. Ce dernier est utilisé pour retirer un objet des serveurs CloudFront localisés avant l'expiration du délai spécifié. Par exemple, les premiers 10 To sont facturés 0,12 dollar/Go et les 40 To suivant 0,08 dollar/Go en Europe et aux États-Unis. Le compteur qui mesure le trafic consommé est remis à zéro tous les mois.

(...)

(03/04/2012 11:25:59)

Le 26MinutesIT du Monde Informatique au Nord IT Days le 12 avril 2012

À partir du mois d'avril 2012, retrouvez-nous autour d'un plateau télé de 26 minutes en live sur LeMondeInformatique.fr et en direct des IT Days pour aborder les sujets qui vous intéressent au premier plan. La consumérisation IT, le cloud computing, les nouvelles menaces en sécurité, la chasse au gaspi applicative, la sauvegarde intelligente, la virtualisation... Chaque rendez-vous sera l'occasion de débattre avec un de nos journalistes experts, des DSI et des fournisseurs de solutions informatiques. Durant 26 minutes, nous vous proposerons des échanges, des retours d'expérience et des points de vue de professionnels de l'informatique. 26 minutes de débat sans concession autour d'un thème d'actualité.

Pour notre premier rendez-vous à Lille, le 12 avril 2012 en direct du salon Nord IT Days à EuraTechnologies, le thème abordé sera « quel futur proche pour le cloud ? Depuis deux ans, on assiste à une déferlante du cloud computing qui veut, rappelons-le, qu'un client ne soit plus propriétaire de son infrastructure, mais locataire d'un service rendu par un fournisseur. Et le client paye ce qu'il consomme. 
De nombreuses études montrent aujourd'hui que la majorité des entreprises font du cloud en allant simplement sur les réseaux sociaux par exemple. Il est fort à parier que, dans un proche avenir, les entreprises iront bien plus loin dans leur stratégie Cloud en déportant des applications « business » et critiques. Pour cela, il y a bien sûr des conditions à remplir pour les fournisseurs de solutions cloud comme, par exemple, assurer l'interopérabilité entre les clouds, garantir la sécurité et la réversibilité des données ou encore identifier leur localisation. 

Et la consumérisation IT

Dans un autre registre, le cloud pourrait aussi éliminer tous les risques liés à la consumérisation IT. Un phénomène qui touche de nombreuses entreprises. En effet, les salariés utilisent régulièrement leurs propres équipements informatiques (smartphones, PC portables, etc..) qui représentent d'ailleurs le futur poste de travail nomade. Les services informatiques ne doivent plus ignorer ce phénomène, mais bien au contraire, ils doivent trouver un juste équilibre entre ce que le salarié peut faire et ce qu'il ne doit pas faire. Un choix stratégique pas si simple à appréhender ! 

Le 12 avril prochain, Jean-Michel Soyez, président du Club DSI Gun, Christophe Laloyer, directeurs des systèmes d'information de Kiloutou, Florent Plonquet, responsable des systèmes d'information de Rouge-Gorge Lingerie, Anthony Seifert, directeur des systèmes d'information de Pay-Back Group, et bien sûr notre journaliste Benoit Huet, en charge des dossiers au Monde Informatique, débattront sur ces thèmes. Diffusée en live sur le site du Monde Informatique, l'émission sera animée de mains de maître par Marc Lionel Gatto de MLG Consulting.

 

 

(...)

(03/04/2012 09:57:58)

Cloud : le secteur public reste toujours timoré selon IDC

Une récente enquête réalisée par le cabinet IDC auprès de responsables IT du secteur public a révélé que  plus de la moitié des sondés ne disposent à l'heure actuelle pas d'un budget spécifique pour le cloud computing. De plus, dans les cas où un budget cloud existe, il ne dépasse pas les 15% du budget informatique total.

Administrations publiques conservatrices

Cette enquête fait partie d'un récent rapport d'IDC qui revient sur le rôle que peuvent jouer les différents types de cloud - public, privé et hybride - dans le secteur public. Celui-ci met en exergue le fait que le secteur public, s'il est conscient des bénéfices que peut apporter le cloud computing, est encore réticent à affronter le changement. Jan Duffy, directeur de recherche pour la région EMEA chez IDC, a relevé la nature conservatrice des administrations publiques: «Bien que nous observions une certaine volonté de passer au cloud, il est révélateur que plus de 75% des sondés aient indiqué n'avoir pas déployé, et n'avoir pas l'intention de déployer, de services cloud au cours des 12 prochains mois. Compte tenu des attentes exprimées par de nombreux responsables quant au rôle majeur que le cloud est appelé à jouer dans le domaine des administrations publiques, nous avons été surpris que les prévisions d'augmentations des budgets alloués au cloud ces trois prochaines années soient aussi minimes».

Lois et réglementations peu adaptées

Parmi les chiffres clés de cette enquête, 46% des sondés estiment que des préoccupations sécuritaires entravent actuellement l'adoption du cloud dans les administrations publiques, et près de 37% des sondés estiment que les lois et réglementations en vigueur empêchent le déploiement de services cloud au sein de leur département ou de leur ministère. En outre, plus de 50% des sondés estiment que l'utilisation de services cloud réduirait le volume de données sauvegardées sur des ordinateurs portables et autres terminaux personnels, et donc le potentiel de pertes de données. Enfin, selon les sondés, le recours à un cloud public est avant tout pertinent pour la gestion globale de l'IT, pour le back-up des données et l'archivage ainsi que pour le développement et le test d'applications. La pertinence du cloud privé est  pour sa part relevée pour le back-up de données, l'archivage ainsi que pour les services on-demand concernant la capacité des serveurs ou de stockage.


ICTjournal.ch

(...)

(02/04/2012 13:31:45)

Intel prépare un «super processeur» HPC dopé à l'InfiniBand

« Le super processeur devrait être capable de délivrer une bande passante de données élevée grâce à l'utilisation de la technologie d'interconnexion InfiniBand, » a déclaré Diane Bryant, vice-présidente et directrice générale de l'Intel Datacenter and Connected System Group. L'InfiniBand est une technologie d'interconnexion à faible latence qui sert de liaison entre les serveurs en cluster et les unités de stockage dans les datacenters. Cette technologie permet aussi d'établir une communication à faible latence entre les processeurs et les serveurs dans les data centers, et sollicite peu la CPU.

Diane Bryant n'a pas précisé comment la technologie InfiniBand serait utilisée avec le super processeur. Cependant, le chip pourrait être intégré directement dans la gamme des processeurs pour supercalculateurs d'Intel existant, comme les chips Xeon serveur et le co-processeur MIC à plusieurs noyaux intégrés (Many-Integrates Cores), mélangeant des noyaux x86 standards avec des noyaux spécialisés pour stimuler les tâches HPC.

Un gain à chercher du coté des entrées/sorties 

Les derniers processeurs d'Intel, le Xeon E5 et la puce MIC 50-core, nom de code Knights Corners, ont été associés en parallèle dans un supercalculateur du nom de Stampede. Celui-ci devrait être mis en service l'an prochain au Texas Advanced Computing Center de l'Université du Texas. Le supercalculateur délivrera des performances de pointe de 10 pétaflops (soit 10 000 milliards d'opérations à virgule flottante par seconde). « Les composants capables de délivrer une bande passante élevée seront très importants pour les systèmes haute performance à venir, » a déclaré Diane Bryant.

Le projet de super processeur vient après l'annonce faite en janvier par Intel de la reprise de l'activité InfiniBand de Qlogic. Selon le fondeur, cette acquisition partielle va permettre à Intel d'intégrer la technologie de bande passante à l'intérieur des systèmes, alors que les processeurs sont toujours plus puissants et que la performance des serveurs ne cesse de s'accroître. Cette acquisition s'inscrit aussi dans une stratégie plus large de la course à l'informatique exaflopique, pour fournir du stockage haute performance et plus de bande passante serveur.

Développer l'usage d'InfiniBand 

« Au départ, l'objectif de la technologie d'interconnexion InfiniBand était de remplacer des protocoles comme le Fibre Channel et l'Ethernet. Mais la technologie a mis trop de temps à se développer, » a déclaré Nathan Brookwood, analyste principal chez Insight 64. «L'intégration de l'InifiniBand dans une puce va faciliter la construction de systèmes haute-performance à faible latence. On voit tout de suite quels avantages il est possible d'en tirer, » a dit l'analyste.

L'intégration de l'InfiniBand dans de futurs chips MIC pourrait donner à Intel les moyens de créer des systèmes à densité élevée pour l'interconnexion dans les supercalculateurs. « Cependant, avec ce type de structure, la question est de savoir comment va travailler le logiciel, » a ajouté Nathan Brookwood.

Intel n'a pas donné davantage de détails sur ces puces, son porte-parole indiquant simplement que l'entreprise n'avait pas encore d'informations spécifiques à communiquer sur les futures implémentations de l'InifiniBand.

 

(...)

(30/03/2012 14:23:57)

AWS met à jour son image de machine virtuelle Linux

Amazon Web Services (AWS) a mis à jour l'image Linux proposée dans son cloud pour y inclure les dernières versions de Tomcat, MySQL et Python, tout en laissant les entreprises qui le souhaitent continuer à utiliser les anciennes versions, ainsi que le prestataire l'explique sur son site. L'un des principaux objectifs de la version 2012.03 d'Amazon Linux AMI (Amazon Machine Image, image de machine virtuelle) était de permettre aux entreprises d'exécuter différentes versions d'applications et de langages de programmation. Amazon explique que cela permet de faire migrer, depuis d'anciennes images, un code qui repose sur différentes versions, tout en limitant les changements.

Par exemple, les nouvelles configurations comprendront la version 5.5 de MySQL (base de données désormais gérée par Oracle), sauf si les administrateurs choisissent explicitement d'installer l'ancienne version 5.1. Cependant, les entreprises qui font déjà tourner MySQL sur Linux dans le cloud d'Amazon conserveront la version 5.1 de MySQL par défaut, signale encore Amazon. Disponible partout depuis le mois de décembre 2010, MySQL 5.5 offre de meilleures performances et une meilleure évolutivité que la version précédente. A l'époque, Oracle affirmait que Linux était jusqu'à 370% fois plus performant en lecture-écriture et jusqu'à 200% fois plus performant en lecture seule comparativement la version 5.1.

Noyau Linux en version 3.2

De la même manière, les utilisateurs d'AWS ont également la possibilité de choisir entre les versions 6 et 7 de Tomcat, entre les versions 8 et 9 de PostgreSQL, et entre les versions 2.6 et 2.7 de Python. Pour Python, l'ancienne version est toujours proposée par défaut. Mais Amazon veut ajouter dès que possible plus de modules pour la nouvelle version.

Amazon a également mis à jour le noyau Linux en version 3.2, comme tous les outils en ligne de commande d'AWS, et a actualisé la plupart des packages. La version 2012.03 d'Amazon Linux AMI est disponible partout. Les référentiels ont également été mis à jour dans toutes les régions, comme l'a précisé Amazon. L'image Linux d'Amazon est disponible dans une multitude de formats : les utilisateurs peuvent ainsi choisir entre les versions 32 et 64-bits, et différents niveaux de performance, depuis la micro instance jusqu'aux instances quadruples extra-larges. Le coût des instances à la demande s'échelonne entre 0,02 et 2 400 dollars de l'heure.

(...)

(28/03/2012 09:52:50)

Silicon Valley 2012 : Ring 4 chez Scality, Big data chez RainStor et stockage flash chez Nimbus Data

Première étape dans le quartier d'affaire de San Francisco pour rencontrer une nouvelle fois Jérôme Lecat, le CEO de Scality. L'occasion de parler de Ring 4.0, la dernière version de la solution de stockage scale-out poussée par la start-up franco-californienne. Cette société spécialisée dans le stockage cloud présente comme particularité de faire travailler des ingénieurs français qui sont moins chers et beaucoup plus productifs que leurs homologues américains selon Jérôme Lecat. Un écho que nous avions déjà eu l'année dernière auprès de jeunes entrepreneurs rencontrés dans un incubateur de start-ups à Sunnyvale.  Une quarantaine de personnes travaillent déjà pour Scality des deux côtés de l'Atlantique et cette équipe sera bientôt renforcée par l'arrivée d'un nom bien connu dans le milieu du stockage en tant que directeur de la stratégie produit.

Alternative meilleur marché au SAN, le RING de Scality se présente toujours comme une plate-forme de stockage distribué à travers des noeuds de serveurs Linux x86 standards. Pour la version 4.0 plusieurs points ont été revus. " Le travail a commencé, il y a un an pour certains composants comme le système de fichiers. Pour ce dernier, nous ne sommes pas repartis de zéro, c'était trop de travail de tout reconstruire. Nous nous sommes concentrés sur certains points comme le déplacement des gros fichiers. Nous développons également une solution NFS qui n'est pas encore prête, mais qui sera très utile pour nos clients ".

Evolution de l'anneau de Scality 

Ring 4.0 propose une architecture qui diffère des précédentes versions avec un anneau supplémentaire dédié à la gestion des métadonnées (le ring app server), mais toujours en liaison avec les noeuds de stockage de l'anneau principal (le data ring). Et pour réduire le temps de latence, ce second ring, celui des métadonnées, utilise des disques flash pour accélérer l'accès aux données. S'appuyant sur une étude préliminaire réalisée par le cabinet d'étude ESG Lab, Jérôme Lecat annonce un temps de réponse de 7,05 ms. La version finale de ce rapport sera publiée à l'occasion du prochain Storage Networking World (du 2 au 5 avril à Dallas). Cette étude souligne également que cette architecture de stockage distribuée assure des performances élevées en terme d'IOPS pour l'accès à de petits fichiers et fournit une bande passante élevée pour l'accès à de gros fichiers.

Depuis son lancement, Scality gère un pétaoctet de données chez les clients : chez France Télévision par exemple avec des noeuds répartis dans des centres en France métropolitaine et dans les territoires d'outre-mer. Pour assurer son avenir, la société a toutefois besoin de passer à la vitesse supérieure avec des ventes de plusieurs pétaoctets. Le dirigeant se montre confiant sur le sujet avec des projections optimistes et un coût aux 100 To très compétitif face à une solution NAS (950 000 dollars contre 180 000 dollars pour Scality selon une étude Forrester). Face à un Amazon S3 les tarifs sont plus proches (180 000 dollars également), mais Scality permet ici de créer son cloud de stockage privé.


[[page]]

Une base de donnée Hadoop ready chez RainStor

Nous avons poursuivi la journée avec une visite chez RainStor, toujours à San Francisco. Fondée par des Britanniques, cette start-up propose une base de données SQL spécialement taillée pour le big data et le traitement décisionnel.

Multistructure, la solution de RainStor supporte nativement le système de fichiers HDFS, celui d'Hadoop. Rappelons qu'Hadoop est  un agrégateur Open Source de données structurées et non structurées qui permettent d'analyser d'énormes volumes d'informations. En exécutant sa base de données nativement sur Hadoop, RainStor indique qu'il est possible d'interroger et d'analyser plus rapidement ces informations multi-structurées. 

Mark Cusack, chief architect, et John Bantleman, CEO de RainStor

John Bandleman, le CEO de la compagnie, nous a expliqué qu'un des points forts de sa base est la compression drastique des données (dans un ratio de 40:1) et ce afin de réduire les coûts de possession du stockage. Second étage de la solution l'analytique avec une passerelle SQL et Oracle vers MapReduce. Cela concerne l'ensemble des données compressées, à la fois structurées et non structurées, en cours d'exécution les clusters HDFS.

Deux baies de stockage 100% flash 

Nous avons terminé notre journée avec une dernière rencontre avec Nimbus Data dans un hôtel de la Silicon Valley en état de siège. Mitt Romney organisait en effet un diner à 25 000 dollars le couvert pour lever des fonds pour sa campagne à l'investiture républicaine pour la prochaine élection présidentielle américaine. Cernés par les manifestants, les membres des services secrets et la police du comté de Redwood City, nous avons pu discuter avec Thomas Isakovitch, le CEO de Nimbus Data, de ses baies de stockage flash.

[[page]]

Avec les E-Class (classe entreprise), la start-up propose un système de stockage entièrement redondant d'une capacité de 10 à 500 To reposant sur des modules flash EMLC (400 ou 800 Go) dotés d'une interface SAS. Ce système  utilise un système d'exploitation basé sur Linux avec des fonctions de déduplicaton, de snapshot, de réplication et de chiffrement. Si le coût au gigaoctet est d'environ 10 dollars, le système se rattrape avec une consommation électrique de 5 watts par téraoctet, ce qui revient à économiser près de 80% sur les coûts habituels de refroidissement avec des disques durs SAS 15K nous a indiqué le dirigeant.

Thomas Isakovitch, CEO de Nimbus Data

À coté du E-class, Nimbus propose le S-class. Si le premier est constitué d'une paire de contrôleurs redondants et accueille jusqu'à 24 modules flash par rack 2U (avec un maximum de 10 To par rack), le second se contente de 5 To par unité. Avec ses deux plates-formes, la start-up fondée en 2006 vise le marché de la consolidation du stockage dans les environnements de serveurs virtualisés, les infrastructures web, des clusters de bases de données, les solutions VDI (Virtual Desktop Infrastructure) et enfin le HPC.

Le système S-Class a un prix de départ de 25 000 $ pour une configuration 2,5 To. La baie Classe E commence à 149 995 $ pour une configuration 10 To, ce qui fait un tarif de 10 $ par gigaoctet, plus 25 000 $ pour chaque contrôleur.

Nous poursuivrons notre programme très dense demain avec Engine Yard, une plateforme SaaS pour le développement d'applications, NextGen Storage et son appliance d'optimisation de la performance des systèmes de stockage et enfin la très intéressante  solution de virtualisation de bases de données de Delphix.

(...)

(26/03/2012 08:40:44)

Le Groupe Chèque Déjeuner virtualise ses postes de travail

Le Groupe Chèque Déjeuner est présent dans 13 pays avec 2 130 collaborateurs. Il sert 21,7 millions de salariés de 193 200 entreprises avec 4,3 milliards de valeur en titres de paiements spéciaux pour un chiffre d'affaires de 290,3 millions d'euros. En France, le groupe dispose de 14 sites (un siège et 13 délégations). Il souhaitait alléger les tâches fastidieuses de gestion du parc de postes de travail, mieux intégrer les 10% de postes mobiles, se préparer à la diversité des types de terminaux (tablettes...) et accroître la sécurisation globale de son système d'information.

Depuis 2007, le Groupe Chèque Déjeuner est engagé dans une démarche de consolidation du système d'information qui a déjà abouti à centraliser l'ensemble des serveurs de l'entité française dans un seul datacenter. Le groupe a décidé de profiter de cette concentration pour centraliser la fastidieuse gestion des postes de travail en les virtualisant.

Les solutions Microsoft Remote Desktop Service et Workspace Manager de RES Software ont été retenues. Outre les fonctionnalités d'administration classiques de ce type de solution, la capacité de bien gérer la sécurité sur chaque poste, y compris en bloquant les ports USB à distance, a été un critère essentiel de choix. La DSI de 80 personnes a commencé par déployer le système auprès d'un service de taille réduite, le service juridique et contentieux (25 postes) avant d'étendre progressivement service par service (DRH, services généraux...). 90% du parc sera migré fin 2012. (...)

(23/03/2012 14:29:55)

VDI : quels avantages, quels inconvénients ?

Beaucoup d'entreprises continuent à faire tourner Windows XP sur un nombre important d'ordinateurs de bureau de leur parc informatique, quand ce n'est pas sur la totalité d'entre eux. Soit parce que la migration nécessite des mises à niveau matérielles coûteuses, une mobilisation importante en temps de travail pour le transfert des paramètres, et une formation de l'utilisateur. Soit parce qu'il n'y a tout simplement pas de raison impérieuse à faire passer les utilisateurs sur un nouveau système d'exploitation et à les orienter vers de nouvelles applications. Dans certains cas, les deux raisons sont liées.

Mais, si l'on considère que Microsoft a déjà cessé de livrer des correctifs pour Windows XP - hormis les correctifs de sécurité - et que l'éditeur a programmé la fin de tout support pour ce système d'exploitation pour 2014, cette stratégie ne sera pas tenable plus longtemps pour beaucoup d'entreprises.

La solution de l'infrastructure de bureau virtuel

La VDI utilise un serveur pour faire tourner des systèmes d'exploitation et des logiciels dans une machine virtuelle. Les utilisateurs accèdent à ces postes de travail virtuels depuis leurs ordinateurs PC existants. Cela permet non seulement d'éviter la mise à niveau matérielle des postes de travail, mais laisse aussi à l'utilisateur la possibilité de faire des va-et-vient entre des environnements systèmes différents, par exemple entre Windows XP et Windows 7.

Qui plus est, l'infrastructure de bureau virtuel rend les tâches administratives et de gestion beaucoup plus faciles, parce que tous les postes de travail tournent sur la même image. L'installation de l'OS, les mises à jour logicielles et l'application des correctifs se font au niveau de l'image, et tous les systèmes de bureau utilisant cette image sont automatiquement mis à jour et corrigés. Ce sont les avantages les plus évidents de la VDI. Mais il y a aussi un revers à la médaille.

Voici un aperçu des avantages et des inconvénients à utiliser une infrastructure de bureau virtuel.

1. Les bureaux de tous les utilisateurs tournent sur la même image

Les pour :
Le fait que les bureaux des utilisateurs tournent sur la même image, aussi bien le système d'exploitation que les applications installées, réduit les coûts administratifs et le coût du support technique.

Les contres :
Si un utilisateur a besoin d'un ensemble d'applications différentes, une configuration et des paramètres personnalisés, ou s'il veut pouvoir installer librement ses propres applications, il a besoin d'avoir une image unique pour lui tout seul. Cela peut multiplier rapidement les besoins de stockage sur le serveur VDI.

2. Les opérations de calcul se font au niveau du serveur VDI et non plus au niveau des postes de travail individuels.

Les pour :
Il n'est plus nécessaire d'upgrader les postes de travail pour mettre les machines au niveau de configuration matérielle minimale requise par le nouveau système d'exploitation.

Les contres :
Il faut par contre prévoir de gros investissements en matériel serveur, et probablement en stockage et en infrastructure réseau. Le coût total de ces matériels peut dépasser celui de l'achat de nouveaux PC pour chaque utilisateur.

3. Les coûts matériels sont plus faciles à maîtriser, puisque presque tout se passe au niveau du datacenter.

Les pour :
Au lieu d'acheter une palette de nouveaux PC qu'il faudra répartir dans l'entreprise -voire même à l'extérieur, pour les salariés nomades ou ceux qui travaillent à distance - il faut simplement acquérir un serveur costaud, avec des alimentations redondantes et protégées contre les coupures de courant, du stockage haute performance et un réseau bien dimensionné capable de servir de manière égale tous les utilisateurs.

Les contres :
L'achat d'un gros serveur représente une mise de fonds initiale élevée, comparé à l'acquisition de PC peu coûteux qui peuvent être acquis par étapes ou mis à jour au fur et à mesure. De plus, au cas où le serveur tombe en panne, tous les utilisateurs qui dépendent de son bon fonctionnement seront dans l'impossibilité de travailler. Par contre, si un seul PC tombe en panne, un seul utilisateur est affecté.

4. La maintenance d'une seule image permet de réduire les coûts de gestion et du support technique.

Les pour :
L'installation de logiciels, l'application de correctifs et l'ajout de pilotes, ne se fait qu'une fois, et tout utilisateur dont la machine tourne sur la VDI profite des améliorations apportées par la mise à jour.

Les contres :
Les administrateurs doivent se former au logiciel VDI pour bien connaître ses capacités et ses limites. Si le nombre d'utilisateurs ayant besoin de logiciels particuliers ou de paramètres personnalisés est important, ils vont devoir gérer une multitude d'images, ce qui peut finir par être plus compliqué que la maintenance de postes de travail individuels.

5. En cas de problèmes, il n'y a qu'un seul système à réparer.

Les pour :
Les problèmes peuvent être généralement résolus au niveau du datacenter. Inutile donc de se rendre sur le poste de travail. Généralement, les images virtuelles sont accessibles depuis n'importe quel poste de travail connecté, et l'utilisateur qui a des problèmes sur son PC peut simplement changer de poste de travail et accéder à toutes ses données et ses applications de manière transparente depuis un autre ordinateur connecté à la VDI.

Les contres :
Les problèmes côté serveur peuvent affecter plusieurs utilisateurs. Tous ceux qui sont connectés au même serveur ou qui tournent sur la même image virtuelle sont concernés. C'est la raison pour laquelle il est recommandé de mettre en place des serveurs redondants.

(...)

(20/03/2012 14:47:54)

AMD s'attaque au cloud avec ses puces Opteron 3200

Après ses puces Opteron 6200, AMD s'attaque au segment des serveurs d'entrée de gamme avec ses processeurs de la série 3200. Avec cette plate-forme, la firme de Sunnyvale espère reprendre un avantage concurrentiel sur son éternel adversaire, Intel, dans le marché des serveurs cloud.

Les trois Opteron 3200 dévoilés se destinent aux serveurs mono-socket, particulièrement appréciés par les fournisseurs d'applications cloud et les hébergeurs de solutions web, selon une présentation de la société. Ces puces possèdent jusqu'à huit coeurs, avec une vitesse d'horloge allant jusqu'à 3 GHz, et consomment de 45 à  65 watts.

Des coeurs à bas coût

Ces processeurs reposent sur l'architecture processeur Bulldozer, inaugurée par les Opteron 6200, dotés eux de 16 coeurs, et les puces pour PC de bureau de la série FX, avec huit coeurs max. Le lancement de ces Opteron 3200 intervient quelques semaines après l'annonce par AMD du rachat de la société SeaMicro pour un montant de 334 millions de dollars. Cette start-up s'était spécialisée dans la fourniture de serveurs ultradenses et économes en énergie pour les environnements de type cloud computing. Selon les analystes, les puces d'AMD vont probablement se substituer aux processeurs Intel Xeon série E3 utilisés dans le serveur SeaMicro SM10000-XE. Intel a travaillé avec SeaMicro sur le serveur, mais AMD va imposer ses propres composants pour relancer ces serveurs d'un nouveau genre.

AMD positionne son Opteron 3200 comme un produit au "bas coût par coeur". Les puces sont vendues entre 99 et 129 dollars aux États-Unis, alors que les processeurs Intel Xeon E3 sont proposés entre 189  et 885 dollars. MSI, Tyan, Fujitsu et Dell devraient lancer des serveurs web et les systèmes denses basés sur les puces AMD.

Explorer de nouveaux marchés

En élargissant sa ligne de produits, AMD arrive sur de nouveaux marchés, a indiqué Jim McGregor, analyste chez In-Stat. Mais si on mesure la concurrence sur les prix par rapport à la consommation par watt, l'Opteron 3200 n'est peut-être pas si bien équipé pour entrer sur ce marché, a précisé M. McGregor.  Il y a un intérêt croissant pour le déploiement de serveurs de faible puissance dans les centres de calcul  afin de réduire les coûts en énergie, mais les puces Opteron 3200 sont relativement gourmandes en énergie pour de telles installations.

Une meilleure adéquation serait l'utilisation des coeurs basse consommation AMD Bobcat, destinés aux ultraportables et aux netbooks, a poursuivi l'analyste. Mais pour proposer des fonctions indispensables sur le marché des serveurs comme la mémoire ECC et une meilleure protection des données, AMD a été obligée de pousser les coeurs plus imposants des Opteron. La firme de Sunnyvale n'a pas vraiment conçu de puces basse consommation pour serveurs.

Qui plus est la stratégie d'AMD avec SeaMicro n'est pas très claire. L'entreprise doit agir rapidement pour établir une présence sur le marché, a déclaré M. McGregor. La société est confrontée aux défis d'Intel, qui a une longueur d'avance dans la conception et la fabrication de processeurs, mais aussi d'ARM, dont les puces sont bientôt attendues dans les serveurs. Les puces d'Intel Atom basse consommation sont déjà utilisées dans les serveurs, et Hewlett-Packard a commencé à tester des machines très denses à base d'ARM.

 

 

(...)

(19/03/2012 16:15:44)

VMware annonce la disponibilité de vCenter Operations Management Suite

Issue du rachat de la start-up Integrien en aout dernier, vCenter Operation Management Suite 5.0 (vCOPS) succède à vCenter Operations.  « Il existe déjà des outils de gestion, mais issus du monde des silos. Avec les avancées de la virtualisation, on travaille différemment avec des pools de ressources physiques » nous a indiqué Lionel Cavallière, responsable marketing Europe chez VMware. Face à la complexité grandissante des systèmes d'information, l'éditeur propose d'automatiser les processus et de casser les silos afin de mieux suivre le fonctionnement des applications et d'optimiser les performances.

Avec la montée en puissance des environnements virtuels, la gestion de la performance devient encore plus importante. Quand une infrastructure s'agrandit avec l'ajout de machines virtuelles, la compréhension et la  gestion de la performance deviennent des éléments clefs dans l'administration d'environnements physiques et virtuels. Une des principales erreurs, selon Lionel Cavallière, est d'assigner les mêmes ressources physiques aux machines virtuelles. « Auparavant, on avait l'habitude de surprovisionner. Le taux de consolidation est bien différent, il doit être optimisé. Il y a trop de mémoire allouée par exemple ».

Deux modules dont un nouveau, vCenter Infrastructure Navigator

vCOPS 5.0, qui s'intègre étroitement avec vSphere, se compose de deux modules : vCenter Operations Manager 5.0 et vCenter Infrastructure Navigator 1.0, qui est un nouveau produit. Avec le premier module, il est possible de gérer les performances et les capacités de plusieurs machines équipées de vCenter. Le tableau de bord  a été étoffé avec des indications sur le bon fonctionnement, les risques et l'efficience de l'infrastructure qui permettent d'afficher la performance générale et le cas échéant de remonter des alertes préventives pour résoudre plus rapidement les problèmes. Le second module, vCenter Infrastructure Navigator 1.0, s'attache à créer une cartographie des dépendances des services applicatifs au sein de l'infrastructure virtuelle. Il est possible de recenser automatiquement toutes les applications sur les machines virtuelles, les hôtes, les clusters, les systèmes de stockages, les liens vNetworks... ainsi que l'interdépendance entre les machines virtuelles et les sauvegardes SRM.

« Au travers de ces outils, notre but est d'augmenter et de mieux gérer la virtualisation dans les entreprises. On assiste d'ailleurs à un basculement sur notre base installée avec une accélération de la virtualisation. (...) Avec nos parts de marché, cette base est idéale pour proposer nos produits et composer avec les outils existants », nous a précisé Lionel Cavallière.

Quatre versions de la suite vCenter Operations Management sont proposées à partir de 55 dollars HT par machine virtuelle : Standard, Advanced, Enterprise et Enterprise Plus. Les mises à jour sont gratuites pour les clients actuels de vCenter Operations.

 

(...)

< Les 10 documents précédentsLes 10 documents suivants >