Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 781 à 790.
| < Les 10 documents précédents | Les 10 documents suivants > |
(12/11/2010 11:48:06)
Riverbed s'attaque aux clouds privés et publics
Riverbed poursuit son évolution dans les outils de performance informatique. Après l'optimisation des applications pour les environnements difficiles avec Virtual Steelhead, l'équipementier s'attaque aux clouds et à la migration des entreprises vers les nuages privés et publics. Pour Apurva Davé, vice-président du marketing produit de Riverbed, « le cloud concentre deux problématiques, la gestion de la croissance des données échangées et les questions de bande passante (latence, temps de réponse). Pour répondre à ces questions, Riverbed propose deux produits.
Le premier a été baptisé Cloud Steelhead. Il s'agit d'une version de l'appliance Steelhead de Riverbed qui est en charge de l'optimisation WAN. Cet outil comprend des modules complémentaires qui accélère la circulation des données vers et depuis les centres de données des fournisseurs de clouds, sans nécessiter la reconfiguration des réseaux des entreprises ou des prestataires. Le trafic ainsi optimisé accélère l'exécution des applications dans le cloud public, rendant ainsi cet environnement plus attractif financièrement que garder certaines applications dans un cloud privé. Cet équipement est compatible pour l'instant avec le cloud public EC2 d'Amazon. Il est livré avec un logiciel baptisé, Discovery Agent, qui se connecte au module de gestion de Riverbed, hébergé chez Amazon. Ce portail crée un lien logique entre une appliance Steelhead installée sur un site d'entreprise (ou un client Steelhead Mobile sur un ordinateur individuel) et le serveur recherché. Apurva Davé souligne « le déploiement d'une telle solution est rapide et évolutive, si une entreprise à besoin d'une autre instance, elle est opérationnelle en quelques minutes ». En ce qui concerne le prix, Riverbed a adapté sa tarification en fonction de la bande passante, il faut compter 250 dollars pour un lien à 1 Mbits.
Le stockage optimisé
Le second produit répond au nom poétique de Whitewater. Cette solution est utilisée par les fournisseurs sauvegarde et d'archivage en mode cloud. Elle permet la transformation des protocoles (CIFS, NFS, etc...) de stockage entre les datacenter d'entreprise et ceux des prestataires de stockage cloud. Elle réduit le nombre d'octets qu'il faut pour stocker des données dans le cloud et les crypte aussi pour ne pas être lus pendant le transfert ou quand elles sont stockées, souligne Riverbed. Le produit, qui sera vendu comme un logiciel ou un équipement physique, déduplique le trafic et le sécurise en utilisant un chiffrement AES 256. Il stocke les clés de chiffrement et renvoie les données dédupliquées stockées dans sa forme initiale quand elles sont récupérées sur le cloud. Whitewater est compatible avec EMC Atmos, AT & T Synaptic Storage as a Service et Amazon S3. Ce produit qui se déclinera en version small, medium et large est vendu en tranches en fonction du nombre d'octets de données stocké dans le cloud. Le coût pour 1 To de stockage est de 12 000 dollars.
Microsoft pousse Hyper-V pour combler son retard dans le cloud privé
Microsoft a conclu un partenariat avec six grands fournisseurs de solutions matérielles pour proposer des architectures de référence qui aideront les entreprises à construire des clouds privés de type IaaS (Infrastructure-as-a-Service). Dell, Fujitsu, Hitachi, Hewlett-Packard, IBM et NEC sont les principaux partenaires de ce programme baptisé Hyper-V Fast Track Cloud qui propose des plates-formes prédéfinies et certifiées pour assembler et configurer plus rapidement des clouds privés reposant sur les solutions de l'éditeur.
L'annonce fait partie d'un certain nombre de nouvelles initiatives de Microsoft pour offrir davantage de soutien aux entreprises intéressées par le déploiement de clouds reposant sur la technologie Hyper-V, et ce en interne ou via un prestataire de services informatiques. Rappelons que Hyper-V est l'hyperviseur de type 1 livré avec Windows Server 2008 R2, pour installer plusieurs machines virtuelles sur un serveur physique.
"Nous pensons que ce programme va accélérer le déploiement des projets clouds. Microsoft a une position unique sur le marché du cloud computing avec ses plates-formes, ses infrastructures et ses liens avec de nombreux partenaires », nous a précisé lors de cette annonce Jérôme Trédan, directeur de la division serveurs chez l'éditeur de Redmond. « Une des bases de ce programme a été le lancement de l'offre reposant sur la plate-forme HP BladeSystem Matrix (voir lien). Le programme d'engagement Hyper-V Fast Track Cloud étend aujourd'hui cette base à 80% des constructeurs présents en France. »
Des architectures de référence pour aller plus vite
Pour chacun des six partenaires, Microsoft propose une architecture de référence ainsi que la documentation technique pour installer les logiciels. Par exemple, le HP Cloud Fondation pour l'architecture Hyper-V montre comment intégrer les équipements et les logiciels BladeSystem Matrix (serveurs stockage et réseau), System Center et Windows Server 2008 R2 Hyper-V dans un cloud privé.
Les architectures de référence sont censées régler toute une série de problèmes de mise en oeuvre comme la façon dont les couches réseau et stockage vont travailler ensemble, combien de machines virtuelles peuvent être déployées sur un serveur physique et enfin comment opérer le basculement avec les systèmes existants. Les architectures de référence de Dell, HP et IBM ont été dévoilées lors de la conférence Microsoft TechEd à Berlin et celles des autres fournisseurs le seront dans les prochains mois.
En plus de Fast Track, la société a également commencé à sélectionner les prestataires qui seront capables de fournir des services cloud reposant sur la technologie Hyper-V dans le cadre du programme Hyper-V Cloud Service Provider. A ce jour, l'éditeur a accrédité plus de 70 fournisseurs, dont Agarik et Linkbynet en France. Mathieu Demmor, responsable marketing chez ce dernier prestataire, nous a expliqué vouloir adresser le marché des TPE-PME avec ses offres clouds privés Hyper-V. « Une offre infrastructure pour des budgets serrés qui démarre à 550 € HT par mois pour une instance virtuelle web et une disponibilité de 99,5% et passe à 1470 € HT par mois pour 4 machines virtuelles avec une dispo de 99,75%. »
Un effort indispensable pour suivre et rattraper Vmware
Microsoft propose des formations à ces prestataires et intégrateurs pour accompagner les projets de clouds privés chez les clients. Un ensemble de guides, Hyper-V Deployement Guides, sont également fournis pour mettre en place des clouds privés avec une grande variété d'équipements.
Pour les intégrateurs travaillant pour le compte d'entreprises, Microsoft propose un programme baptisé Hyper-V Cloud Accelerate, qui aidera les intégrateurs à mettre en place des systèmes de test et à déployer des systèmes de production. Les conseils et les partenaires de Microsoft accompagneront le mouvement. « "Les nouveaux programmes sont probablement nécessaires pour aider Microsoft à vendre Hyper-V et System Center comme des pièces de base pour les clouds internes », a souligné Derrick Harris, analyste chez GigaOm, sur son blog. « Le principal compétiteur sur le marché des hyperviseurs pour le cloud est Vware, qui a fait un excellent travail marketing pour pousser ses produits de virtualisation en tant que solution pour les clouds. Considérant le leadership significatif de VMware sur le marché et les esprits, Microsoft a besoin d'accompagner les utilisateurs vers sa technologie Hyper-V-est-connecté-au-cloud» si elle veut combler l'écart. "
L'éditeur de Redmond a annoncé ces services au cours de sa conférence TechEd Europe, qui se tient cette semaine à Berlin.
Crédit photo : D.R.
Marvell se lance dans l'aventure des puces ARM pour serveurs
La puce Armada XP est le « plus rapide » processeur ARM disponible sur le marché aujourd'hui, a déclaré Marvell dans un communiqué. Le processeur est cadencé à 1,6 GHz et comprend de la mémoire (2 Mo sur deux niveaux de cache), des interfaces réseau et stockage autour de laquelle un serveur peut être construit.
ARM accorde des licences aux différents fabricants de puces comme Marvell, Texas Instruments, Samsung et Qualcomm. Les processeurs ARM sont reconnus dans le monde des smartphones, ainsi que dans le secteur des tablettes. Le fondeur parle, depuis 2008, d'intégrer sa technologie dans les serveurs et l'Armada XP de Marvell pourrait leur apporter une place sur ce marché. Marvell sera en concurrence avec des entreprises comme Smooth-Stone, qui a déjà annoncé son intention de proposer des puces serveurs basées sur les architectures ARM.
Un porte-parole de Marvell a indiqué que des puces Armada XP ont été fournies pour tests à certains clients de haut niveau, sans indiquer les noms de fabricants de serveurs. Ce composant pourrait s'adresser par exemple aux serveurs réseaux et médias.
Un marché en devenir
Le fabricant de semi-conducteur a également déclaré que sa puce est basée sur l'architecture ARM v7, mais le porte-parole ne pouvait pas immédiatement fournir plus de détails. ARM a récemment introduit un processeur appelé Cortex-A15, qui cible une utilisation dans des produits allant des smartphones à des serveurs. Ce composant est basé sur la récente architecture V7-A.
Il y a un intérêt croissant pour la fabrication de serveurs avec des puces de faible puissance pour exécuter rapidement les opérations liées au cloud computing. ARM indique que son produit fournit de meilleures performances par watt que les puces basées sur l'architecture x86 d'Intel ou AMD.
Beaucoup d'expérimentations sont déjà en cours avec des puces-serveur de faible puissance, mais le résultat est modeste. Les puces Atom d'Intel pour les netbooks sont utilisées dans certains serveurs spécialisés tels que le SM1000 SeaMicro, qui comprend 512 processeurs Atom sur des cartes mères miniatures de la taille d'une carte de crédit. AMD a également indiqué qu'il pourrait envisager de mettre ses prochaines puces de faible puissance dans les serveurs.
(...)
Apple annonce la mort d'Xserve et sort un Mac Pro Server
Apple n'a jamais vraiment été un acteur de poids dans le domaine des serveurs pour datacenter, même Steve Jobs l'a reconnu. Certes, les équipements de la firme de Cupertino offraient une solution prête à l'emploi « out-of-the-box, » à l'image de ses ordinateurs de bureau et de ses portables. Si bien que, les petites entreprises autant que les moyennes - et en particulier celles qui utilisent des ordinateurs sous Mac OS X -trouvaient sans doute la mise en oeuvre et la maintenance plus facile, que des serveurs comparables sous Windows ou Linux.
En termes de prix, les serveurs Xserve, comme la plupart des produits Apple - ont toujours paru surévalués par rapport à des plates-formes comparables. A la différence que le serveur Xserve est fourni avec un nombre illimité de licences d'accès client, une dépense qui peut rapidement devenir élevée dans le cas d'un serveur sous Windows. Si bien que, ramené au nombre d'utilisateurs, un serveur Xserve pouvait effectivement se vanter d'afficher un coût très honorable.
Bascule vers Mac Pro
Mais qu'on le veuille ou non, l'histoire de ces serveurs feront partie du passé dès le 31 janvier prochain. Si la version lame disparaît, la société a annoncé un nouveau serveur Mac ! En effet, le Mac Pro peut être utilisé comme serveur en faisant simplement tourner Mac OS X Server sur la machine. Apple va aussi proposer un Mac Pro pré-configuré et optimisé pour ce rôle. Ce dernier en configuration « Serveur » est équipé d'un processeur quad-core cadencé à 2,8 GHz, de 8 Go de RAM, et de deux disques de 1 To. Il coûte 3 000 dollars US et il est, bien sûr, livré avec Mac OS X Server.
L'abandon du XServe pour datacenter ne doit en aucun cas être interprété comme l'abandon d'Apple de la conquête de la clientèle professionnelle. L'iPhone et iPad vont continuer à gagner du terrain et aider à construire la base qu'Apple pourra utiliser pour conquérir sa clientèle pro.
La croissance du marché des semi-conducteurs ralentira en 2011
Le marché des semi-conducteurs devrait amorcer un ralentissement en 2011, après une année 2010 record, selon l'association SIA qui représente les fabricants de puces outre-Atlantique. L'organisme professionnel a estimé que les ventes de composants électroniques augmenteront de 32,8% cette année pour atteindre 300,5 milliards de dollars, dépassant pour la première fois le cap des 300 milliards de dollars. « Nous avons fait des ventes sans précédent en raison d'une forte demande au niveau global émanant d'un large éventail de marchés », a déclaré Brian Toohey, président de la SIA, dans un communiqué. Ce dernier a toutefois ajouté qu'il s'attendait à une croissance plus modérée d'ici à 2012, à mesure que l'économie repartira et que les consommateurs reprendront confiance.
6% de croissance en 2011 estime la SIA
La demande en PC, téléphones mobiles et terminaux nomades, iPad inclus, ont dynamisé le marché des processeurs en 2010. La reprise globale, après la chute brutale de 2009, a également contribué à relancer les ventes, les fabricants produisant davantage de processeurs de manière à réapprovisionner les stocks. Toutefois, l'année prochaine, les fabricants de processeurs enregistreront une croissance moins importante. La SIA estime qu'en 2011, les ventes de semi-conducteurs n'augmenteront que de 6% pour s'établir à 318,7 milliards de dollars. Les prévisions de la SIA sont proches de celles émises par Morris Chang, président de Taiwan Semiconductor Manufacturing (TSMC), l'un des plus gros fabricants de puces à l'échelle mondiale. La semaine dernière, ce dernier a estimé, lors d'une conférence d'investisseurs, que les ventes de semi-conducteurs allaient progresser de 5% en 2011.
De son côté, IDC s'est voulu un peu plus optimiste concernant l'année prochaine en raison de l'augmentation des achats en matériel high-tech réalisés par les entreprises, qu'il s'agisse de PC sous Windows 7 ou d'équipements de stockage, de sécurité et réseau. Le cabinet d'études a ainsi indiqué, à la mi-octobre que la hausse des ventes de semi-conducteurs pourrait osciller entre 8 à 9% en 2011.
Illustration : site de Taiwan Semiconductor Manufacturing (crédit photo : TSMC)
(...)(04/11/2010 16:15:10)Dell s'offre Boomi, un spécialiste du cloud
En mettant la main, mardi dernier, sur Boomi, une entreprise spécialisée dans l'intégration de SaaS, Dell entend se renforcer dans le domaine du cloud computing. Les termes de la transaction restent encore inconnus. Boomi fournit des services qui simplifient le déploiement et la gestion des applications dans le cloud, parallèlement aux solutions développées en interne dans l'entreprise.
Des tentatives pour racheter 3Par
La plate-forme d'intégration à la demande conçue par Boomi et baptisée Atomsphere permet de transférer rapidement des données entre des applications exploitées sur site et des services hébergés comme le CRM Salesforce.com. Ce rachat constitue l'une de premières étape dans la construction d'un portefeuiille de produits plus important, au moment où de plus en plus d'entreprises se tournent vers une informatique basée sur le web, a commenté Dell dans un communiqué. Il y a quelques mois, la firme texane avait tenté d'acquérir 3Par, un moyen pour l'entreprise de mettre un pied dans la mouvance cloud. Mais au final, ce fût HP qui remporta la bataille.
L'été dernier, le texan s'offrait Ocarina Networks, une start-up spécialisée dans la déduplication de donnée et Exanet, un autre éditeur de solutions de stockage.
(...)
APC se lance dans les logiciels de gestion énergétique des datacenters
On ne dit plus simplement « APC », mais « APC by Schneider Electric ». Le changement de nom n'est pas anodin : désormais filiale d'un géant de l'énergie, APC fait de la réduction de la consommation électrique sa principale priorité. C'est dans ce contexte que le constructeur annonce la création d'une division dédiée aux logiciels de surveillance, de planification et de modélisation pour les datacenters.
Concrètement, les logiciels APC seront commercialisés par les partenaires certifiés Elite. Ils sont 10 aujourd'hui (Apis Engineering, Dimension Data France, ECF Ingénierie, EVEA Group, Everest Real Concept, IBM France, Module-IT, RMI, SPIE Communication et Telis) et cinq nouveaux certifiés Elite sont attendus pour les mois qui viennent.
Un nouveau canal pour le software
Au-delà, APC s'apprête à créer un canal de distribution dédié à ses logiciels, réunissant des acteurs qui se montraient peu intéressés par la revente de son offre d'onduleurs et de climatiseurs. Il s'agit notamment des intégrateurs et des SSII, mais également de certains corporate resellers, qui pourront commercialiser les logiciels APC même s'il n'y a pas de vente de matériels de la marque ou même pour des centres de données existants qui utilisent d'autres marques. « Nous n'avons pas fixé un chiffre précis pour le nombre de partenaires software, mais nous pensons que 20 à 30 entreprises vont nous rejoindre », précise Eric Boucheron.
On peut légitimement s'interroger sur les ambitions d'APC dans le domaine des services : seront-ils également commercialisés via des partenaires ? « Nous n'envoyons pas de factures aux clients finals. Même lorsque nous réalisons un audit payant, c'est le partenaire qui nous l'achète et le facture au client. La réduction de la consommation électrique est une priorité pour tous les responsables de datacenters. Nous avons des solutions et nous allons partager cette opportunité avec nos partenaires », conclut Eric Boucheron.
Inquiétudes des entreprises sur la sécurité du cloud et du web 2.0
« Moins d'un tiers des entreprises dans le monde disposent d'un plan de gestion des risques informatiques à même de les prémunir contre les dangers liés à l'utilisation des nouvelles technologies » constate le cabinet Ernst & Young dans sa treizième étude mondiale sur la sécurité informatique, « Global Information Security Survey ». Les principaux problèmes sont liés à la croissance de l'externalisation, notamment via l'informatique en nuage (cloud computing) comme le très courant SaaS, mais aussi par les pratiques collaboratives comme les réseaux sociaux et le web 2.0. Michel Richard, associé chez Ernst & Young responsable du département sécurité des SI, attire également l'attention sur la mobilité croissante des équipes et l'insécurité inhérente aux outils et méthodes de cette mobilité (smartphone, ordinateurs portables, tablettes, connexion au SI par le web, etc.). Pour lui, il ne s'agit pas de remettre en cause l'évolution des pratiques métiers mais plutôt d'être conscient des risques et de prendre les mesures nécessaires pour s'en prémunir.
Précisons que le cabinet ne s'intéresse pas principalement à la sécurité informatique au sens technique du mot mais plus à la sécurité des données transitant dans un SI.
La sécurité parent pauvre des budgets
Les dépenses en sécurité n'augmentent en proportion du budget IT que dans la moitié des cas. Dans 6% des cas, la proportion des budgets informatiques consacrée à la sécurité est même en baisse, le solde étant constitué par des organisations aux dépenses plus ou moins stables en sécurité.
Les priorités des entreprises concernent avant tout la continuité d'activité (28% des répondants la placent en première priorité) et la « compliance » (16%), c'est à dire la conformité avec les règles tant légales que professionnelles (Bâle II, etc.). Viennent ensuite la prévention des pertes de données, la gestion des risques sur la sécurité des données, les problématiques d'identification et de sécurité d'accès...
Les efforts particuliers de cette année ne recoupent pas nécessairement les besoins immédiats. En effet, une priorité peut être déjà largement traitée et ne pas nécessiter de nouveaux investissements. Malgré tout, on constate que dans ces efforts financiers la continuité d'activité mais au même niveau que la prévention des fuites d'informations (50% des répondants vont dépenser davantage que l'année passée). Les problématiques d'identification et de sécurité d'accès sont juste derrière (48%) et suivies de la sécurisation des clouds.
[[page]]
La perte directe d'efficacité de l'organisation liée à un problème de sécurité est loin d'être la préoccupation majeure des répondants (38% sont principalement préoccupés par la perte de chiffre d'affaires directement induite). Dans 67% des réponses, c'est en effet la perte de crédibilité de l'entreprise et de ses marques qui est jugée comme la conséquence la plus dramatique d'un incident de sécurité, suivi par la perte de confiance des actionnaires (42%) et des clients (41%).
Les fuites de données dans les nuages sont redoutées
Les risques évoluent. Pour 52% des répondants, le danger qui s'accroit le plus concerne les pertes de données, loin devant la perte de visibilité sur la confidentialité et la sécurité des données (39%) et les accès non-autorisés à celles-ci (34%). Seulement 30% des organisations disposent d'un plan de sécurité informatique qui tient effectivement compte de l'évolution des risques.
Or la nature même des SI évolue. Si 55% des répondants n'envisagent pas de recourir au cloud dans les 12 prochains mois, 23% y recourent déjà et 22% travaillent sur le sujet (soit déjà planifié, soit en cours d'évaluation). Les craintes de sécurité expliquent sans doute que le cloud privé reste privilégié (54% des répondants) contre 29% pour le « vrai » cloud public et 45% qui entendent mixer les deux ou recourir à des solutions hybrides. Le SaaS reste le mode d'exploitation le plus populaire (77% des répondants), devant l'IaaS (45%) et le PaaS (34%).
Une vision moyen-terme plutôt myope
Au-delà du SI au sens strict, les nouveaux usages sont des sources d'inquiétudes mal maîtrisées, qu'il s'agisse du cloud, des réseaux sociaux ou de l'introduction des outils personnels comme les smartphones. Seules 28% des entreprises estiment disposer d'une politique de sécurité adaptée et 34% savoir ce qu'il faudrait faire, 35% n'en n'ayant pas vraiment une vision et désirant y réfléchir.
Les répondants sont curieusement fidèles aux référentiels de bonnes pratiques : 52% déclarent pratiquer ITIL, 47% ISO/IEC 27001:2005, 43% Cobit, 35% ISO/IEC 27002:2005... Malgré tout, seules 60% des organisations disposent d'un plan stratégique formel sur l'évolution de leur politique de sécurité du SI et des données dans les trois ans à venir.
| < Les 10 documents précédents | Les 10 documents suivants > |