Flux RSS
Cloud computing
904 documents trouvés, affichage des résultats 631 à 640.
| < Les 10 documents précédents | Les 10 documents suivants > |
(25/08/2010 10:52:52)
Le logiciel de routage Vyatta certifié IPv6
La version 6.1 de la solution Vyatta (le nom signifie ouvert en Sanskrit) est désormais disponible en téléchargement sur le site Web de la société. Elle a reçu « IPv6 Ready Logo Phase 2 », une certification délivrée par l'IPv6 Forum. Cette approbation vise à assurer une migration en douceur vers IPv6, qui comprend un nombre presque illimité d'adresses pour les appareils connectés à Internet et dispose de fonctionnalités de sécurité plus avancée que le protocole actuel, IPv4.
Vyatta est basée sur les logiciels de routage et de la plate-forme de sécurité conçu pour être déployé sur des serveurs d'entreprise standard. Le logiciel de routage et de sécurité est gratuit, mais il existe aussi une version payante qui inclut certains éléments de gestion supplémentaires et des fonctions de sécurité. Il est offert à partir de 747 dollars. Il existe aussi des modules complémentaires provenant d'éditeurs tiers. Celui qui a été récemment ajouté à la version 6.1 comprend un abonnement à Sourcefire / Snort, une base de données sur la sécurité, à partir de 250 dollars par an.
Vyatta annonce le recrutement de 1 000 clients payants et la communauté d'utilisateurs est estimée à plus de 100 000 personnes dans le monde. Si la version payante du logiciel a été certifiée par le programme de tests d'interopérabilité et de conformité de l'Université du New Hampshire pour le compte de l'IPv6 Forum, la version gratuite inclut également toutes les fonctions IPv6. Néanmoins, Tom McCafferty, vice-président en charge du marketing se veut rassurant « il n'y a pas de demande urgente pour la migration vers IPv6. Quelques clients au Japon et le gouvernement américain s'intéresse de près à cette évolution ».
Selon Matt Ford, de l'Internet Society, organisme qui tient à jour un compte à rebours sur la pénurie des adresses Internet « il ne plus que 550 jours avant l'attribution de toutes les adresses IPv4 non utilisées ».
La dernière version de Vyatta comprend également une passerelle vers le cloud de niveau 2, qui relie physiquement deux réseaux séparés sur Internet au sein d'un réseau Ethernet unique. Cette possibilité. Cette fonctionnalité permet aux entreprises et fournisseurs de services de déplacer des machines virtuelles entre les différents réseaux sans changer les adresses IP internes, explique Tom McCafferty. La société a également ajouté une correction automatique en cas de panne. On peut ainsi changer un serveur matériel par un autre tout en conservant des informations sur l'état du logiciel.
(...)(24/08/2010 17:38:38)Avec l'architecture Bulldozer, AMD mise sur les unités de calcul nombres entiers
Attendus en 2011, les processeurs basés sur l'architecture Bulldozer comprendront plusieurs coeurs et seront jusqu'à 50% plus rapides que les puces actuelles (Magny-Cours) reposant sur le design K10, a déclaré Dina McKinney, vice-présidente en charge de l'ingénierie chez AMD. Si la nouvelle architecture améliore significativement les performances, elle apporte également une plus grande flexibilité dans la façon dont les tâches sont exécutées dans les coeurs de processeurs. Les CPU de la famille Bulldozer seront destinés aux serveurs comme aux ordinateurs de bureau, précise encore la dirigeante. Les premières puces, connues sous le nom d'Interlagos, devraient toutefois être réservées aux serveurs et comprendront de 12 à 16 coeurs par socket.
Moins d'unités de calcul en flottant
Les concepteurs de puces comme Intel et AMD ont toujours amélioré les performances des processeurs en ajoutant des coeurs, en augmentant la fréquence d'horloge, ou en améliorant les capacités de traitement parallèle (multithreading). Un autre élément a toutefois été particulièrement soigné dans l'architecture Bulldozer : il s'agit de l'optimisation des liens et des échanges entre les différents coeurs et les autres composants internes du processeur. Prenant en compte la montée en puissance des GPU, notamment sur le marché des HPC, AMD a choisi de privilégier au sein de ses nouveaux processeurs, les unités dédiées aux calculs sur les nombres entiers au détriment des unités dédiées aux calculs flottants. Ainsi à la différence des architectures plus classiques, un processeur de la famille Bulldozer est composé de 1 à 8 blocs, chaque contenant deux coeurs dédiés aux entiers contre un seul coeur pour les flottants. Selon le Californien, il s'agit du meilleur compromis entre le nombre de transistors et la capacité de calcul. Les coeurs sont principalement dédiés aux tâches les plus courantes, tandis que les composants partagés tels que l'unité de virgule flottante ne sont utilisés que lorsque c'est vraiment nécessaire. Plus petites, car elles nécessitent moins de composants, les puces sont au final moins gourmandes en énergie. Avec une même quantité de courant électrique, AMD estime que le rendement d'un processeur Bulldozer sera jusqu'à 50% supérieur à celui d'un Opteron Magny-Cours avec 12 coeurs.
Des processeurs plus spécialisés
Dans le passé, les fondeurs axaient le développement de leurs puces autour des seules performances, mais les temps changent, explique Jim McGregor, analyste chez In-Stat. Les processeurs sont désormais conçus pour répondre aux exigences nouvelles de l'informatique pour des applications comme les bases de données ou les services Web, souligne l'analyste. Les demandes ne sont plus les mêmes pour les serveurs : certains recherchent plus de performances en virgule flottante et d'autres une meilleure bande passante pour la mémoire.
Ces puces devraient aider AMD à élargir son offre pour serveurs et à conquérir de nouveaux marchés. La condition sine qua non pour résister à la féroce concurrence d'Intel, qui domine le segment des processeurs X86 pour serveurs. «Comment vont-ils faire contre Intel ? C'est difficile à dire," poursuit Jim McGregor. Au deuxième trimestre 2010, Intel possède 93,5 % du marché des processeurs pour serveur, tandis que la part d'AMD est descendue à 6,5 %, selon une étude
publiée la semaine dernière par IDC.
Mais les constructeurs de serveurs ont appris à bien travailler avec AMD, et les nouvelles puces du Californien de Sunnyvale devraient facilement trouver leur place, estime l'analyste. Les principaux fournisseurs de serveurs, - Hewlett-Packard, Dell et IBM, qui proposent tous les trois des systèmes sur base AMD Opteron, n'ont pas encore dévoilé leur intention quant à l'adoption de la nouvelle architecture Bulldozer d'AMD.
Illustration : Architecture de la plate-forme Bulldozer d'AMD
HDS repêche discrètement ParaScale
Quelques lignes sur le blog de Miki Sandorfi responsable des fichiers et des services de contenus chez HDS ont permis de savoir que le spécialiste du stockage s'était emparé de ParaScale. Inutile de taper son nom sur Google, le résultat aboutit à une page vide. Il faut dire que cette société a fermé au mois de juin dernier, faute d'avoir pu boucler son second tour de table. Hitachi Data System récupère donc les brevets, ainsi qu'une équipe d'ingénieurs travaillant sur la solution.
Le service ParaScale Cloud Strorage facilite la création, la gestion et le provisionnement d'un cloud de stockage. Pour Mike Sandorfi, cela répond exactement à la philosophie du cloud ou de l'utilisation à la demande de capacité de stockage. « Tout le monde n'a pas besoin d'avoir la même taille et le cloud n'est pas un produit unique ».
Aucun montant n'a été indiqué sur l'opération.
Entretien Jerry Kennelly, PDG de Riverbed Technology
Riverbed est un acteur dominant de l'optimisation du WAN mais le danger est de devenir une entreprise qui n'a qu'une corde à son arc. Comment pouvez-vous élargir la portée de votre entreprise ?
Jerry Kennelly : Ce que nous faisons réellement est l'accélération de la couche applicative 7 et ceci a des conséquences beaucoup plus profondes que le simple fait de rendre une ligne télécoms plus rapide et moins coûteuse qu'elle ne l'était. C'est quelque chose qui change la nature de l'infrastructure IT globale pour toutes les grandes entreprises mondiales. Tout le monde aime avoir des liens plus véloces, pour économiser de la bande passante. Cependant, il est moins coûteux de faire de l'optimisation et de la compression à travers le réseau que d'acheter des liens plus rapides. Cette solution a été utilisée aussi pour la consolidation de centres informatiques, ce qui aboutit à déménager tous les serveurs et l'infrastructure IT hors des bureaux distants des entreprises et des multiples centres informatiques, vers uniquement un ou deux centres globaux. Cette tendance a beaucoup contribué à notre croissance au cours des trois dernières années. Nos produits ont rendu cela possible car on ne peut pas faire de consolidation de datacenter à moins de délivrer des performances satisfaisantes.
Parlons de Cisco. Comment faites-vous pour concurrencer une entreprise qui a une si large gamme de produits et un très bon soutien de ses clients ?
Jerry Kennelly : Cisco est très présent sur la couche 2 et 3 du réseau, mais aujourd'hui l'action est moins sur ces couches mais beaucoup plus sur celles de 4 à 7 (transport, session, présentation et application). Cisco est le roi des niveaux 2 et 3 et nous sommes les rois des couches 4 à 7.
Au bout du compte, tout dépend du produit. Si vous avez le bon produit, vous avez une chance de réussir. Le fait que Riverbed existe et dispose d'une plus grande part de marcgé que Cisco, prouve seulement à quel point nos produits sont appréciés. Car si ce n'était pas le cas, nous aurions mordu la poussière il y a longtemps. Cisco n'a pas d'expertise dans la couche applicative. Personne ne peut tout faire, être bon dans tous les domaines, pour toujours. Après avoir concurrencé Cisco durant 9 ans, je peux vous dire que ce ne sont pas des surhommes.
Pour lire la suite de l'entretien, cliquez ici (...)(24/08/2010 12:24:17)
Le cloud vecteur d'idées innovantes
Le rapport établit que les infrastructures IT traditionnelles et rigides entravent l'innovation car le déploiement et les tests sont longs à mettre en place. De son côté, les services informatiques à la demande bénéficient d'une plus grande rapidité de mise en oeuvre et d'exécution.
« Souvent les coûts et le temps nécessaires pour tester un produit ou service innovant, pour éprouver une méthode marketing sont si inabordables qu'ils découragent les entreprises avant même d'essayer », informe l'étude. « Mais le cloud computing offre un moyen peu coûteux et flexible de déployer l'infrastructure nécessaire pour expérimenter les idées ». Par exemple, le rapport mentionne que l'entreprise 3M utilise la solution Azure de Microsoft pour analyser rapidement des concepts sur les produits destinés aux consommateurs tandis que la société McKesson utilise l'outil « Analytics Cloud » de SAS pour étudier les données marketing.
Toutefois, PWC reconnaît dans son étude que le cloud computing accroît les problèmes de sécurité, tout comme ceux de conformité réglementaire et ceux liés aux aspects économiques et financiers. (...)
Lancement du « Start-up Challenge » d'Amazon Web Services
Pour la quatrième année consécutive, Amazon Web Services (AWS) lance son concours « Start-up Challenge », ouvert aux jeunes entreprises basant leur activité sur ces services cloud. Les candidats vont être jugés sur la façon dont ils utilisent cette plateforme (stockage, puissance de calcul, bases de données). Les années précédentes, le concours a par exemple mis en avant la société MileMeter, vendant des assurances auto au kilomètre. Pour la première fois le concours offrira des prix récompensant des gagnants différents pour le continent Américain, l'Europe et l'Asie Pacifique. Au final donc, 5 demi finalistes de chaque région seront sélectionnés et dotés, pour finir à 6 finalistes et un grand gagnant mondial. Lancé ce 23 août, le concours recevra les candidatures jusqu'au 31 octobre prochain. La finale se tiendra à Palo Alto, en Californie, début décembre et sera diffusée en direct sur Internet.
Quelques obligations pour participer
Les jeunes entreprises qui viseraient le grand prix devront répondre à certains pré-requis pour être sélectionnées. Le premier critère consiste évidemment en l'utilisation d'Amazon Web Services par la start-up, vérifiable par la possession d'un compte sur les plateforme EC2 ou S3. Les autres pré-requis sont quant à eux plus libres d'interprétation, et stipulent que l'entreprise doit avoir une activité un minimum originale ou créative, qu'elle doit posséder une viabilité à long terme sur le marché et qu'elle répond à un besoin effectif sur celui-ci. Autres conditions, comme toujours dans ce type de concours, il ne faut pas que l'entreprise ait dépassé un certain seuil de chiffre d'affaires pour être éligible, seuil ici fixé à 10 millions de dollars maximum, et qu'elle n'ait pas reçu plus de la même somme en financements externes. Il faut enfin que la société soit privée et que son siège social soit situé nécessairement dans l'un des pays participant au concours, dont la France.
Des récompenses sous la forme de services
Outre le grand gagnant mondial, qui recevra un chèque 50 000 dollars, ainsi que 50 000 dollars en crédits de services AWS, des services de support, un tutorat technique d'un an et une offre d'investissement de la part d'Amazon, les gagnants « intermédiaires » recevront leurs lots sous la forme de crédits AWS. Déjà, tout participant éligible recevra pour 25 dollars de ces crédits. Les cinq demi-finalistes régionaux se verront dotés de 2 500 dollars à dépenser sur la plateforme, tandis que les six finalistes disposeront de 10 000 dollars utilisables de la même manière.
Ce genre d'initiatives commence à réellement se développer chez la plupart des grands acteurs du marché. Entre IBM qui a récemment lancé son concours « Global Entrepreneur » et Microsoft qui depuis 2 ans propose le programme « BizSpark » qui soutient les start-ups, ces jeunes entreprises disposent de divers moyens pour arriver à maturation avec l'aide de ces grands groupes. Les critères d'originalité et de viabilité économique des projets sont en règle générale le dénominateur commun de ces différents concours. (...)
Les opérateurs télécoms domineront le marché du cloud d'ici 2 ans
Les « Telcos » devraient prochainement être les acteurs principaux du cloud computing. Peter Hall, analyste du marché chez Ovum affirme en effet que les utilisateurs de ces services devraient croître rapidement durant les prochaines années. « Nous nous attendons à ce que l'intérêt grandisse vivement pendant les deux ou trois prochaines années, il est donc temps pour les opérateurs de développer des stratégies concernant leur entrée sur le marché ».
Selon lui, cette avancée est logique pour ces fournisseurs qui utilisent actuellement des datacenters pour stocker leurs données. « Ils ont un historique, du moins pour les plus importants, en matière de mise à disposition des services et hébergements gérés par des datacenters, et ont combiné ceci avec leur expertise en réseau et en sécurité pour fournir à leur clientèle des services sur le cloud ».
Un rapport documenté
Ce rapport se base sur l'étude mondiale de 150 entreprises de plus de 1 000 salariés, et intègre des contributions d'Orange Business Services, AT&T et Verizon. Peter Hall précise que chaque société interrogée était bien consciente du lien direct entre le cloud computing et leur coeur de métier. « Tous les acteurs en question ont vu que le cloud pouvait profiter à leurs compétences de base, et Orange a même appliqué le terme « opérateur IT » pour refléter cette évolution de son rôle de fournisseurs de services IT, et ce par analogie à son rôle d'opérateur télécom. ». L'analyste veut néanmoins rassurer ceux qui n'auraient pas encore développé de stratégie cloud, les utilisateurs finaux étant encore prudents face à ce marché « embryonnaire ».
Crédit Photo : D.R.
Le cloud d'Amazon propose la réservation d'instances de base de données
Avec Reserved Database Instances, Amazon Web Services propose une nouvelle manière d'utiliser sa base de données relationnelles (RDS). Désormais, les utilisateurs peuvent payer en une fois et à l'avance pour réserver une base de données dans une région donnée pour une durée de deux ou trois ans. En contrepartie, Amazon leur octroie une remise sur le tarif horaire. Les coûts pour réserver une base de données s'échelonnent entre 227,5 dollars pour une année et 350 dollars pour trois ans, plus 0,046 dollar par heure au lieu de 0,11 dollar, correspondant au taux horaire normalement appliqué, d'après la liste des tarifs établis par Amazon. Dans le cas où la solution Reserved Database Instance est choisie pour toute la période, la réduction peut atteindre jusqu'à 46 %, selon l'éditeur.
Les utilisateurs peuvent réserver jusqu'à 20 bases de données, sans avoir à fournir de justificatifs. Au delà, ils doivent remplir un formulaire de demande, comme l'indique une FAQ d'Amazon. Si les utilisateurs souhaitent faire passer leur base de données à une classe supérieure, c'est à dire avec plus de mémoire et plus de puissance de traitement, le tarif bascule vers les taux horaires standards.
Sur le plan pratique, Amazon Reserved Database Instance et On-Demand DB sont identiques. Elles permettent toutes deux l'accès à une base de données MySQL. Le code, les applications et les outils utilisés aujourd'hui avec les bases de données MySQL fonctionnent avec Amazon RDS. De la même manière, l'éditeur procède aux mises à jour automatiques du logiciel. Pour l'instant le service est encore indiqué comme fonctionnant en version bêta.
| < Les 10 documents précédents | Les 10 documents suivants > |