Flux RSS
Réseaux
2191 documents trouvés, affichage des résultats 251 à 260.
| < Les 10 documents précédents | Les 10 documents suivants > |
(13/07/2010 18:29:32)
VMware divise de près de moitié le prix de vSphere 4.1
Alors que ses concurrents Microsoft et Citrix ont amélioré leurs parts de marché sur le marché de la virtualisation en menant campagne contre les prix pratiqués par VMware, l'éditeur de Palo Alto affirme de son côté que le retour sur investissement permis par ses produits justifie un coût de licence plus élevé. Toutefois, pragmatique, VMware baisse le prix de ses produits d'entrée de gamme, l a semaine où Microsoft organise sa conférence mondiale partenaires (WPC) à Washington (lien).
Ainsi pour vSphere Essentials, le ticket d'entrée de la plate-forme de virtualisation maison, coûte désormais 495 $ pour six processeurs (soit une baisse de 995$), ou 83 $ par CPU. L'éditeur change donc le modèle de tarification de ses produits de supervision en ne prenant en compte que les machines virtuelles actives et non plus les processeurs. Ces changements de prix coïncident avec l'arrivée de sa plate-forme vSphere 4.1. Serge Robe, directeur marketing PME Europe chez VMWare explique à cette occasion que l'éditeur ambitionne de rendre sa technologie de virtualisation plus accessible aux petites et moyennes entreprises, notamment avec le programme VMWare Go 1.5 qui permet de tester la solution de l'éditeur.
« La question est de savoir pourquoi cela a demandé tant de temps [la baisse des prix]», souligne Laura Didio, analyse chez Technology Intelligence Corp (ITIC). « La réponse est qu'ils pouvaient se permettre d'attendre, car ils avaient une très grande avance sur tous les autres acteurs du marché. Ils ont été en mesure de surfacturer, tant que les utilisateurs ne rouspétaient pas. « VMware, qui a toujours considéré que ses plus gros clients ne le lâcheraient pas, a pu maintenir des prix élevés. Il y a deux ans, l'éditeur avait pourtant opéré une petite révolution en offrant gratuitement son hyperviseur ESXi. La reconnaissance que la virtualisation devenait une simple commodité et que la vraie valeur pour les clients était du côté de la gestion des environnements virtualisés.
La baisse de prix opérée cette semaine, de 995 $ à 495 pour vSphere Essentials, a été précipitée et fait suite à une promotion proposée depuis plusieurs mois par VMware. vSphere Essentials comprend l'hyperviseur et des outils tels que le thin provisionning pour le stockage, mais pas de fonctionnalités avancées comme la migration en temps réel. « Nous avons testé cette promotion ces quatre derniers mois et nous avons été très agréablement surpris par les résultats », explique Bogomil Balkansky, vice-président marketing produit chez l'éditeur de Palo Alto. « Il s'avère que 500 $ est un peu ce chiffre magique qui ne nécessite pas de passation de marché. La grande majorité des administrateurs ou des gestionnaires de centre de calcul peuvent justement acheter un outil à ce prix sans passer par un long cycle d'approvisionnement. L'augmentation de volume a été très importante, nous avons donc décidé de transformer ce test en promotion permanente. "
[[page]]
Par ailleurs, VMware passe à une tarification par VM pour la gestion de ses produits, tels que Site Recovery Manager et AppSpeed, en réponse à la demande des clients,
explique Bogomil Balkansky. Dans le cas d'une reprise après sinistre, les clients se demandaient pourquoi ils devaient payer pour protéger toutes les VM sur un processeur alors que seules certaines machines virtuelles étaient considérées comme critiques. Même avec cette souplesse, Bogomil Balkansky estime que la facturation réelle des clients - avec le modèle de tarification par VM - sera grosso modo la même que précédemment.
VMware baisse également le prix de son service Motion, qui permet de transférer une charge de travail d'un serveur à un autre sans avoir besoin de redémarrer, en ajoutant la fonction à vSphere 4.1. Les deux solutions qui recevront vMotion sont Essentials Plus, qui coûte 583 $ par processeur, ou 3495 $ pour six CPU;
et Standard, qui coûte 995 $ par processeur et 6.000 $ environ pour six
puces. « Nous avons voulu démocratiser une fonction clef en intégrant la version complète de vMotion à ces packs », explique Serge Robe.
VMware ne va pas jusqu'à baisser le prix de ses solutions haut de gamme, notamment la plus couteuse Enterprise Plus. Cette version est toujours vendue 3.495 $ pour un seul processeur et intègre la tolérance aux pannes, la récupération de données, le commutateur virtuel Cisco Nexus 1000V, et de nombreuses autres fonctionnalités.
[[page]]
vSphere 4.1, qui est maintenant disponible, est présentée comme la meilleure solution pour bâtir un cloud car elle permet une plus grande évolutivité et assure de meilleures performances. Comme les versions précédentes, vSphere 4.1 permet la construction de clusters qui peuvent être gérés comme une entité unique, mais ces groupes peuvent maintenant inclure jusqu'à 3000 machines virtuelles, soit le double de la précédente mouture. VMware promet également des migrations live jusqu'à cinq fois plus rapides, mais cela dépend essentiellement de la mise à niveau de clients qui doivent passer du Gigabit Ethernet au 10 Gigabit Ethernet. Chaque migration live prend environ deux minutes, selon Bogomil Balkansky.
Un des objectifs de VMware consiste à assurer le contrôle non seulement sur le marché des serveurs, mais également sur celui du stockage et du réseau. «Historiquement, nous avons probablement causé une certaine tension entre les équipes serveurs et stockage », explique encore Bogomil Balkansky. À partir de vSphere 4.0, VMware a tenté de donner aux administrateurs de serveurs une meilleure visibilité sur l'administration du stockage. Aujourd'hui, l'éditeur améliore les performances de vMotion, qui déplace des VM d'un réseau de stockage physique à un autre, en déchargeant de cette tâche le serveur au profit des baies de stockage avec Storage I/O Control et Network I/O Control. Alors que VMware est historiquement axé sur les serveurs, le vice-président marketing prédit que les prochaines éditions de vSphere se concentreront sur la fourniture de « capacités analogues dans le stockage et le réseau. »
La NSA admet l'existence du programme Perfect Citizen
La National Security Agency (NSA) a confirmé jeudi l'existence d'un programme déjà controversé visant à la protection des infrastructures décisives du réseau américain. Pour autant, ce programme, appelé Perfect Citizen, ne surveillerait pas le trafic réseau des infrastructures en question. L'article du Wall Street Journal ayant dévoilé son existence affirmait pourtant que la NSA s'appuierait « sur une batterie de capteurs déployée au sein des réseaux décisifs, déclenchés en cas d'activité inhabituelle ». Le journal précise au passage que c'est la société Raytheon, spécialisée dans la défense du territoire, qui a remporté le contrat de 100 millions de dollars pour gérer la première phase du projet Perfect Citizen.
« Ce n'est pas l'usage prévu pour ces capteurs »
Pour l'agence, la description présentée par l'article est inexacte, et préfère présenter le programme comme étant « purement une évaluation des vulnérabilités et un contrat de développement des performances de sécurité ». La NSA ajoute qu'il s'agit « d'un effort d'ingénierie et de recherche » et qu'« aucune activité d'espionnage ou de surveillance ne sera impliquée, ce n'est pas l'usage prévu pour ces capteurs ».
Toujours d'après le service de renseignement, « ce contrat fournit des solutions techniques visant à aider la NSA à mieux comprendre les menaces qui pèsent sur les réseaux utilisés pour garantir la sûreté nationale, qui est une mission décisive de l'agence ». « Toute suggestion d'association de cet effort à des activités illégales ou intrusives sont tout simplement fausses ». (...)
Les dernières innovations en sécurité et réseau

Le Vantage 6024 est un commutateur Ethernet à 10Gbit/s pour les applications d'échanges de flux financiers. Il comporte 24 ports SFP+ pour des ports Ethernet à la fois 1 Gbit/s et 10 Gbit/s dans un encombrement de 1 U. Sa latence est de moins de 700 nano secondes pour une consommation oscillant entre 115 et 168 watts. Le prix par port est inférieur à 500 $.
[[page]]
Eucalyptus Enterprise Edition (EE) 2.0 : Pour mieux gérer son cloud

Eucalyptus Enterprise Edition (EE) 2.0 est une solution de gestion de cloud délivrée en Open Source. Cette version 2.0 accepte désormais les machines virtuelles Microsoft telles que Windows Server 2003, 2008 et Windows 7 en plus de Linux.
[[page]]
QualysGuard Patch Report : Une mise à jour essentielle

Cette fonction de la solution de gestion de vulnérabilités QualysGuard Vulnerability Management fournit des informations de reporting aux personnels non familiers avec la sécurité de l'entreprise (administrateurs système, opérateurs système). Le patch report inclut un système de prioritisation des correctifs (via un listing) ayant besoin d'êtres appliqués à certains actifs pour réduire les risques et sans avoir à appliquer d'autres correctifs inutiles et redondants. Le Patch Report est la dernière mise à jour du QualysGuard Vulnerability Management.
[[page]]
Watchguard Reputation Enabled Defense : Pour analyser la réputation des URL

Ce service de Watchguard, spécialiste des routeurs pare-feux, le Reputation Enabled Defense (RED) cible la sécurisation de la navigation Internet. Il s'agit d'un outil de consultation de réputation des URL délivré en mode cloud qui permet de savoir si les URL que l'on veut afficher sont bonnes, mauvaises ou inconnues.
WatchGuard SSL 560 VPN : Jusqu'à 500 utilisateurs
Le SSL 560 de Watchguard est un boîtier de sécurité qui assure la prise en charge de 500 utilisateurs simultanément pour des réseaux virtuels VPN de type SSL. Il est commercialisé à partir de 9000 $.
[[page]]
Brocade 804FC Host Bus Adapter : Pour étendre un réseau FC

Cette carte réseau pour serveur proposée par Brocade, leader des réseaux Fibre Channel, supporte l'optimisation des applications serveur pour étendre les réseaux Fibre Channel des centres informatiques vers les serveurs. Elle cible l'optimisation de la performance des applications et des machines virtuelles.
Brocade FC8-64 blade : Commutateur FC haute densité

La lame FC8-64 blade comporte 64 ports à 8 Gbit/s pour les commutateurs SAN de HP/Brocade. Elle augmente la densité de ces derniers de 33%. Cette plus grande densité est destinée à supporter les usages grandissant de serveurs virtuels.
[[page]]
Silver Peak VX virtual WAN controller : Plus besoin d'appliance

Ce logiciel contient toues les caractéristiques des produits NX de Silver Peak, mais ne nécessite plus de matériel spécifique. Il s'installe directement sur des machines standards. L'objectif de ce logiciel est de réduire les coûts en matériel et de mettre en place cette solution sur des sites qui n'auraient pas forcément les moyens d'investir dans du matériel.
[[page]]
Service-now.com Spring 2010 : Mieux gérer son parc de mobiles

Cette version de la plateforme de management IT en mode SaaS supporte désormais des caractéristiques comme le multitouch, le HTML5, les plateformes iPad et iPhone ainsi que les recherches globales provenant de n'importe quel browser mobile. Elle comprend désormais un système de contrôle automatique de confirmité du logiciel sur les postes clients, un système de recherche sur mobile amélioré ainsi qu'un plus grand contrôle sur les personnalisations du logiciel.
[[page]]
Sepaton S2100-ES2 Series 1900/2900 : Assembler plus simplement ses baies de disques

La version 5.4 du S2100-ES2 pour les baies de disques de stockage inclut une fonction d'assemblage de ces derniers. Cela permet aux systèmes de Sepaton de constituer un plus grand nombre d'ensembles de disques durs, incluant les systèmes multi-tenants avec sélection de données. Un système d'analyse de données (Content Aware) permet une gestion des données granulaire et un reporting. Le logiciel supporte également les baies AMS2100 de Hitachi.
Netgem affiche son ambition à l'international
Des fonctionnalités déjà présentes chez d'autres
Netgem à également fait une démonstration du fonctionnement de ses solutions via le portail de Monaco Télécom qui comme Telstra est un de ses client. Ainsi les 17 000 monégasques souscrivant à l'offre de Monaco Télécom ont accès à un portail généraliste d'où ils peuvent regarder la TV, et également avoir accès à certains contenus web tels que YouTube ou encore à un système de VOD (Vidéo à la demande) et de vidéo de rattrapage (catch-up TV). Un dispositif de contrôle à distance permet l'enregistrement de programmes. A noter qu'un smartphone (iPhone, iPad, Blackberry etc.) peut faire office de télécommande via une application gratuite téléchargeable en ligne sur un magasin d'applications.
Photo : Set Top Box de Netgem, D.R
Le MIT promet un Internet plus rapide et moins cher
L'astuce pour obtenir des gains de performances se situe dans les routeurs qui dirigent le trafic Internet, explique Vincent Chan, ingénieur en électricité et professeur d'informatique au MIT, à la tête d'une équipe de chercheurs. Il a indiqué à nos confrères de Computerworld vouloir remplacer le signal électrique au sein des routeurs par un signal optique plus rapide qui dynamise de 100 à 1000 fois les débits. Cette technique réduit également la consommation d'énergie.
Que faire avec des débits aussi élevés ? Aujourd'hui, un abonné qui télécharge difficilement 100 Mo, pourra sans souci envoyer un message de 10 Go avec un accès à Internet 100 fois plus rapide.
« Nous observons dans le futur des processeurs de plus en plus puissants (on parle de 16 coeurs prochainement), des téléchargements de taille plus importante et des applications gourmandes en ressources » explique Vincent Chan en ajoutant « quand ces puces arriveront, les gens vont demander alors plus de débit et la question est de savoir si Internet supportera ces évolutions. Car beaucoup de personnes vont utiliser le haut débit pour faire de la 3D, des jeux interactifs, etc. »
Une commutation du signal optique
La réponse à ces problématiques s'appelle la fibre optique. Cette dernière est largement utilisée pour l'accès à Internet sur de grandes distances. Si elle transmet l'information de manière plus efficace que les signaux électriques, la lumière est plus compliquée à gérer. Un routeur par exemple a des difficultés de gestion en temps réel des signaux optiques provenant de plusieurs sources. Pour contourner ce problème, les routeurs convertissent le flux lumineux en un signal électrique, qui peut être stocké en mémoire. Après traitement, le signal est reconverti en lumière pour être réinjecté dans le réseau.
[[page]]
Ce procédé est gourmand en temps et en énergie. Vincent Chan et son équipe ont trouvé un moyen pour éliminer cette conversion. L'architecture de Chan s'appelle « la commutation de flux » qui établit une voie dédiée sur le réseau entre les sites concernés par l'échange de volumes de données importants. Cela signifie que les routeurs choisissant cette méthode, seul le signal provenant d'une direction déterminée sera accepté et le retour s'effectuera aussi dans une seule direction.
Dan Olds, analyste pour Gabriel Consulting Group souligne que « si on peut réellement accélérer l'accès à Internet près de 100 fois, cela aura un impact important sur l'utilisation du Net, à l'heure de l'arrivée de la 3D ». Pour Rob Enderle, analyste du groupe éponyme « aujourd'hui, le réseau est le goulet d'étranglement pour l'informatique hébergé. Cette technologie pourrait transformer l'industrie telle que nous la connaissons » et d'ajouter « nous avons besoin d'un Internet plus rapide. Nous utilisons actuellement dans certains endroits que 20% de la bande passante ».
Des tests concluants
Dan Olds rappelle l'importance de travailler sur les terminaux et les applications. « Internet va devenir plus rapide, mais des milliards de personnes transitent sur le réseau chaque année et il ne faut pas oublier que des millions d'équipements (smartphones, capteurs,...) se connectent également » explique l'analyste.
[[page]]
Vincent Chan constate qu' « avec des applications de taille importante et de plus en plus de points d'engorgement, vous avez la possibilité d'ajouter de la bande passante complémentaire, mais à un prix excessif et à certains clients seulement ». Les chercheurs du MIT ont testé la couche transport de son architecture dans les Bell Labs du New Jersey. L'objectif de ces expériences est de s'assurer que ce procédé n'a pas d'impact à long terme sur Internet.
En voie de commercialisation
Le scientifique devrait créer sa propre société pour développer et commercialiser la technologie. Il en profitera également pour tester l'intégration de sa solution sur les réseaux traditionnels américains. « Je pense que nous avons réalisé suffisamment de test pour savoir que le transport est prêt et que l'architecture devrait fonctionner » précise le futur entrepreneur.
Des discussions sont également en cours avec les fabricants de routeurs sur l'implantation de cette architecture. « En supposant que la technologie fonctionne comme annoncé, le principal inconvénient sera le coût de déploiement du nouvel équipement et l'optimisation du Net afin qu'il tire parti des dernières fonctionnalités. Ce tarif sera revu à la baisse par un effet de volume » déclare Dan Olds.
L'opérateur VoIP Telecom Object ajoute du TDM à son catalogue
Les partenaires de Telecom Object qui sont à l'origine de 100% de ses revenus, peuvent proposer ses nouveaux services sous deux formes : Une offre en présélection et une offre d'abonnement complète que l'opérateur délivre en achetant des abonnements en gros à Orange. Comme dans le cadre de la revente des offres VoIP de Telecom Object, les membres de son réseau de distribution peuvent agir en tant qu'apporteurs d'affaires (leurs commissions représente 7 à 12% des factures mensuelles des clients) ou en tant que revendeurs en marque blanche. « Dans ce dernier cas, nos partenaires souscrivent à nos services à un prix préférentiel. Ils peuvent ensuite les revendre en leur nom en fixant eux-mêmes leurs tarifs », expliquent Fabrice Pronnier.
Les 2500 zones blanches 3G bientôt couvertes
Cet accord de partage d'infrastructures doit permettre d'équiper les zones blanches en 3G pour aboutir en 2013 à une couverture 3G nationale équivalente à celle de la couverture GSM. Orange, SFR et Bouygues Télécom ont donc convenu de se partager en trois tiers les 2500 sites à équiper. Selon un fournisseur de solutions réseau, chaque opérateur choisissant son équipementier, les appels d'offres devraient être finalisés avant les vacances estivales pour permettre aux premiers tests d'être réalisés avant la fin de l'année.
Illustration (D.R.)
Internet survit à l'explosion du trafic dû à la Coupe du Monde
D'après une analyse d'Arbor Networks, les prédictions catastrophiques sur un effondrement d'Internet pendant la Coupe du monde de football se sont révélées jusqu'ici erronées. Alors que la compétition a effectivement provoqué un trafic inhabituel et une augmentation des paquets échangés de 30%, signale la firme, le réseau semble largement tenir le coup. Durant l'analyse du trafic des principaux FAI, via son système Atlas, Arbor a découvert qu'entre le 11 juin, date de début du tournoi, et le 18 juin, le streaming de vidéos a connu des augmentations notables chez 55 FAI européens et américains. Le cabinet précise que ce fut particulièrement le cas le 15 juin, au cours du match Brésil-Corée du Nord, et que les pics ont alors atteint jusqu'à 1 Tbit/s, soit plus du double du trafic normal, de 400 Gbit/s. Durant tous les jours de matchs, les pics provoqués par les vidéos correspondaient aux horaires de ceux-ci.
Cependant, la firme rejette la possibilité que le streaming vidéo puisse nuire à l'Internet en général. Il ne représenterait en réalité d'une petite partie du trafic, et Arbor indique qu'une grande quantité des données est mise dans un cache local par des fournisseurs comme Akamai, et que celles-ci n'apparaissent donc pas dans les analyses interdomaines. « Jusqu'ici, Internet a survécu, mais avec les matchs finaux qui approchent, on peut s'attendre à un intérêt encore plus fort des consommateurs, et par conséquent des volumes de trafic encore plus importants », remarque Arbor.
Plus largement, les fournisseurs de services ont semble-t-il lutté pour gérer ces surcharges de courte durée. Twitter a eu des « tweetstorms », atteignant près de 3000 messages par seconde, pendant et après chaque match. Akamai et la BBC rapportent avoir dû gérer 800 000 connections vidéos uniques, suggérant qu'il s'agira peut-être du premier événement sportif mondial à avoir autant été regardé en ligne que sur un téléviseur, pour certains pays. Le challenge des services vidéos sur Internet est donc clair pour la Coupe du Monde 2014 : il faut s'attendre à ce que la demande connaisse une croissance exponentielle, et ajuster les infrastructures en conséquence. (...)
Forte croissance des WLAN en 2009
Selon le cabinet IDC, si l'année 2009 a été marquée par une récession écrasante, les réseaux sans fil LAN, les WLAN, sont restés relativement épargnés. Ce marché est donc prêt pour une reprise en 2010. IDC pronostique une croissance de 23% pour les WLAN en 2010 avec 2,1 milliards de dollars, contre 1,7 en 2009.
Contrairement à d'autres segments de marché, il n'y a pas de rupture dans le sans fil qui reste toujours aussi intéressant pour les utilisateurs. De nouvelles applications et de nouveaux marchés verticaux apportent de la croissance organique aux réseaux Wifi, et ce, dans toutes les régions du monde. Selon IDC, les utilisateurs sont passés du sentiment « nice-to-have » à « essential-to-have ».
La prolifération des appareils sans fil sur le réseau va de pair avec l'entreprise sans fil. Les clients demandent des infrastructures réseaux de plus en plus exigeantes, résilientes, intelligentes. Ils se préparent à un déploiement généralisé des réseaux sans fil, en entreprise et dans l'éducation, la santé et les administrations. Un déploiement facilité par la fin des incertitudes sur la norme 802.11n et Power to Ethernet.
| < Les 10 documents précédents | Les 10 documents suivants > |