Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 771 à 780.

< Les 10 documents précédentsLes 10 documents suivants >


(16/11/2010 16:12:13)

Intel apporte ses technologies au service du football américain

Le fabricant mondial de microprocesseurs a déjà travaillé avec le fabricant de casque de football américain Riddell et des chercheurs de plusieurs universités, y compris l'University of Northern Colorado, sur des simulations informatiques visant à améliorer les équipements et réduire ainsi les blessures des joueurs.

Ces simulations sont réalisées sur plusieurs ordinateurs équipés de processeurs Intel Xeon, souligne Intel. Elles reposent sur des modèles conçus par les universités partenaires, ainsi que les données réelles recueillies lors de tests in vivo par le système de télémétrie (HITS), une technologie à l'intérieur de casques qui enregistre les données de l'impact. Les tests peuvent aider dans l'avenir les médecins à diagnostiquer les lésions cérébrales lors d'un match.

Du HPC à l'Atom dans les casques

Intel travaille également avec la clinique Mayo pour accélérer l'imagerie médicale utilisant le co-processeur MIC Intel (Many Integratated Core) dédié au calcul intensif. Les puces peuvent traiter jusqu'à des milliards de calculs par seconde, y compris dans la recherche, l'exploration scientifique et la modélisation du climat, a déclaré Intel. Intel a déclaré que pour des scanners crâniens l'utilisation de processeurs MIC  ont permis de traiter l'image 18 fois plus rapidement. Le fondeur a indiqué que le premier processeur MIC, nom de code Knights Corner, sera gravé en 22 nanomètres.

La société a déclaré que, dans le futur, les processeurs Atom pourraient être intégrés dans des casques et transmettre des données via une liaison sans fil à des serveurs sur les impacts sur la tête afin de mesurer le risque de blessures en temps réel de sorte que le personnel médical puisse intervenir plus rapidement sur les traumatismes. La société n'a pas donné pour le moment une date pour ce projet.

(...)

(16/11/2010 16:15:01)

Un supercalculateur chinois a pris la tête du Top500

C'est fait. Le supercalculateur chinois Tianhe-1A a ravi au Cray Jaguar XT5-HE la première place du classement mondial Top500 des super-ordinateurs les plus puissants. Le système installé au National Supercomputer Center de Tianjin atteint une puissance de 2,57 petaflops/s, ce qui correspond à un million de milliards d'opérations par seconde (soit 10^15, un quadrillion en anglais), contre seulement 1,75 petaflops/s pour celui qu'il a détrôné.

L'arrivée en fanfare du Tianhe-1A en tête du Top500 rétrograde de fait à la troisième place un autre système chinois, le Nebulae installé au National Supercomputing Centre de Shenzhen, dont la puissance de calcul s'établit à 1,27 petaflops/s.

Le quatrième supercalculateur le plus puissant du monde est installé au Japon. Il s'agit du Tsubame 2.0 de l'Institut de technologie de Tokyo qui affiche 1,19 petaflops/s. C'est le seul représentant nippon du Top10, notent les auteurs de ce classement qui soulignent aussi qu'en six mois, le dernier entrant de la liste atteint tout de même 31,1 teraflops/s, c'est-à-dire un millier de milliards d'opérations par seconde selon le benchmark Linpack. Une performance à comparer aux 24,7 Tflops/s du dernier de la liste au semestre dernier.

Efficacité énergétique pour le Blue Gene/Q d'IBM

Autre élément de comparaison attestant de l'augmentation de la puissance globale : la lanterne rouge de la liste publiée ce mois-ci occupait en juin dernier la 305e place. La performance combinée des cinq cents systèmes figurant dans ce classement semestriel a franchi les 44 Pflops/s (44,2). Une puissance à comparer aux 32,4 Pflops/s atteinte en juin dernier et aux 27,6 Pflops/s réunis il y a un an.

Le Top500 délivre aussi des indications sur la consommation électrique de ces supercalculateurs. Si celle-ci augmente, l'efficacité énergétique des systèmes aussi. Seuls 25 d'entre eux utilisent une puissance électrique supérieure à un megawatt (MW). Le nouveau Blue Gene/Q d'IBM se distingue avec une efficacité moyenne de 195 Mflops par watt contre seulement 150 Mflops par watt l'an dernier. La consommation électrique moyenne du Top10 augmente doucement à 3,2 MW contre 2,89 MW il y a six mois. Toutefois, l'efficacité énergétique moyenne de ces dix systèmes, les plus puissants du monde, s'établit à 268 Mflops/watt alors qu'elle était de 300 Mflops/watt au dernier semestre.

Illustration : classement Top500. Le supercalculateur de Tianjin (crédit photo : Nvidia pour le Tianhe-1A)

(...)

(16/11/2010 15:28:03)

EC2 d'Amazon intègre des instances GPU pour du calcul intensif

AWS (Amazon Web Services) a ainsi ajouté une nouvelle instance Cluster GPU à sa plate-forme Elastic Compute Cloud (EC2). L'entreprise espère ainsi attirer vers son service des applications gourmandes en calculs comme le rendu et les médias (vidéo, musique, etc...). Le système offre aussi les avantages liés à l'usage du cloud, à savoir qu'il permet d'économiser sur l'achat, la configuration et l'exploitation de clusters de calcul en interne, et de s'affranchir de leur mise en oeuvre qui répond à des processus souvent complexes, comme le précise Amazon. Le « Quadruple Cluster GPU Extra Large Instance» mis en place par Amazon est associé à deux GPU Nvidia Tesla M2050 « Fermi », dotés chacun de 448 coeurs et de 3 Go de RAM. Il peut réaliser plus d'un milliard d'opérations en virgule flottante par seconde. D'après le descriptif posté sur le blog de AWS, l'instance est également dotée de deux processeurs quad-core Intel X5570 Xeon, 22 Go de RAM et offre une capacité de stockage de 1690 Go en local.

Des tarifs évolutifs

Chaque compte Amazon Web Services peut utiliser jusqu'à huit instances GPU dans un cluster, les noeuds communiquant en 10 Gigabit Ethernet. Aujourd'hui, les utilisateurs souhaitant disposer de cluster plus grands doivent demander l'autorisation d'Amazon. « Le réglage par défaut est là pour aider AWS à mieux comprendre les besoins de ses clients pour cette technologie, mais n'est en rien une limitation liée à son usage, » indique l'éditeur. Le paramétrage par défaut similaire, existant préalablement sur son cluster standard, a été désactivé, indique par ailleurs le blog. Pour tirer pleinement partie des GPU, les applications devront être compatibles avec l'architecture de calcul parallèle CUDA de Nvidia. Les utilisateurs peuvent, soit payer 2,10 dollars de l'heure ou réserver une instance. Dans ce cas ils devront payer des frais initiaux de l'ordre de 5 630 dollars pour un contrat d'un an, plus un taux horaire réduit de 0,74 dollar précise Amazon à titre d'exemple. Ces capacités de calcul via GPU peuvent tourner sous Linux 64-bits. Ils ne sont pour l'instant accessibles que sur le site d'Amazon situé en Virginie du Nord.

(...)

(16/11/2010 14:48:04)

Solaris 11 Express est disponible

Annoncé lors du récent OpenWorld, Solaris 11 Express doit améliorer la disponibilité de l'OS en réduisant de moitié les temps de redémarrage après interruption, souligne Oracle. La durée de Boot est aussi réduite à « quelques dizaines de secondes. »

Le communiqué ajoute également des fonctionnalités de gestion de réseau virtualisé, l'intégration avec le portail d'assistance en ligne Oracle, qui permet des mesures de soutien « proactives et préventives ». On notera aussi une meilleure prise en charge des fichiers ZFS. Cet OS assure une compatibilité avec plus de 11 000 applications développées par des tiers sur quelque 1 000 systèmes SPARC et x86, selon l'éditeur de Redwood.

Une présentation spécifique


Solaris 11 Express présente aux administrateurs système un certain nombre de changements dans l'installation, la livraison de correctifs et d'autres domaines, selon Oracle. La société fournit une série de ressources pour aider à la transition. En outre, un webcast sur ce sujet est prévu pour le 7 décembre. Cette version ne peut pas être utilisée dans des environnements de production ou commerciaux selon les termes de la licence développeur.

Cette annonce intervient quelques mois après qu'Oracle ait annoncé qu'il ne soutiendrait plus le projet OpenSolaris, une distribution Open Source de Solaris, afin de se concentrer sur la version commerciale. Cette décision avait provoqué la colère et la dissolution du conseil d'administration d'Open Solaris. Mais certains membres de la communauté travaillent sur Illumos, un projet dérivé du code source d'OpenSolaris formé en août. (...)

(16/11/2010 10:56:24)

Silicon Valley 2010 : Sécurité et stockage dans le cloud (1e partie)

Sécurité réseau dans le cloud

Fondée en 2006 par J. Chaudhry et K. Kailash, Zscaler propose aujourd'hui aux entreprises un service de sécurité en mode SaaS basé sur son cloud hébergé dans 44 datacenters (en colocation) à travers le monde. Cette solution repose sur une idée simple : au lieu de multiplier les appliances de sécurité dans les entreprises pourquoi ne pas transiter par un serveur proxy, celui du cloud de Zscaler en l'occurrence. Ce dernier propose en fait un service de filtrage capable de contrôler les accès web et la messagerie d'un poste de travail ou d'un terminal mobile de type smartphone ou tablette Internet. Le blocage des spams, le filtrage web et la gestion de la bande passante suivant les politiques réseau de l'entreprise permettent de réduire la charge des serveurs d'un tiers selon les dirigeants de Zscaler. La première question qui vient à l'esprit au mot proxy est bien sûr celle de l'impact sur les performances. « Nous avons déployé notre cloud dans une quarantaine de datacenters dans le monde, avec plusieurs instances dans les noeuds et un coeur centralisé pour suivre les utilisateurs lors de leur déplacement. Ainsi un utilisateur français à Sunnyvale (le siège de Zscaler en Californie, NDLR) sera automatiquement géré par le Datacenter Fremont pour réduire le temps de latence » précise Jay Chaudhry, CEO de Zscaler. « Nous conservons dans notre base de données tous les profils des utilisateurs qui pourront être appliqués n' importe où dans le monde. Il ne s'agit pas de synchronisation instantanée, mais de ce que nous appelons shadow policies. Nous avons passé 5 années à déployer nos appliances dans les datacenters et à peaufiner l'équilibrage de charge de notre proxy configuré par 10 Gigabit».

LVMH et la CINP, déjà clients en France

Plusieurs entreprises françaises utilisent déjà le service proposé par la société de Sunnyvale. « LVMH par exemple a renoncé à ses 600 appliances de sécurité déployés dans ses nombreuses filiales dans le monde pour sécuriser ses accès web avec notre solution » poursuit le CEO. Et depuis cet été, la CINP de Paris (Chambre Interdépartementale des Notaires de Paris) met progressivement en place le service de filtrage en ligne du web et des e-mails de Zscaler pour ses 10 000 utilisateurs. Le service est facturé de 1 à 5 $ par utilisateur et par mois en fonction des options. « Toutes les compagnies sur Internet sont potentiellement nos clients » explique Shrey Bhatia, vice-président en charge des ventes chez Zscaler. « La sécurité est un marché en pleine croissance (20 à 30% par an) et comme cette solution marche partout dans le monde, nous sommes confiants. 50% de nos revenus proviennent déjà du reste du monde (hors USA, NDLR). »


Jay Chaudhry, CEO de Zscaler et Upa Hazarika, responsable produit

Côté technique, la solution de Zscaler repose sur un noyau FreeBSD. «Ce dernier était trop lent pour le 10 Gigabit, nous lui avons donc apporté des améliorations pour développer notre service. Nous avons également développé notre propre système de fichiers pour offrir un service rapide ». Il est utile de préciser à ce stade que K. Kailash, le cofondateur de Zscaler est également à l'origine de Netscaler, rachetée en 2005 par Citrix, et qu'un grand nombre d'ingénieurs de cette start-up ont travaillé sur le projet Zscaler.


Julien Sobrier, développeur chez Zscaler

Notre passage chez Zscaler a également été l'occasion de rencontrer uen développeur français travaillant pour la compagnie, Julien Sobrier, à l'origine d'un plug-in pour FireFox, BlackSheet capable de détecter les intrusions de Firesheep. Cette extension repère si quelqu'un utilise Firesheep sur le réseau où il est connecté, laissant à l'utilisateur le soin d'apprécier la meilleure attitude à adopter en matière de sécurité quand il utilise un réseau WiFi ouvert par exemple. Arrivé en 2003 dans la Silicon Valley, Julien Sobrier a travaillé plusieurs années chez Juniper avant de rejoindre l'équipe de R&D de Zscaler, forte de huit personnes à ce jour. «Nous travaillons sur les évolution virales et collaborons avec d'autres éditeurs comme Google et Microsoft pour prévenir les menaces sur Internet».
Pour revenir sur la solution cloud proposé par Zscaler, Julien Sobrier point les avantages de la plate-forme : analyse en temps réel, mise à jour instantanée des signatures virales, inspection ne profondeur des fichiers et enfin outil d'analyse du trafic. Les amélioration à venir pour les clients sur lequel travaille Julien Sobrier sont  chercher du coté du data mining et d'une analyse encore plus profonde, notamment au niveau des fichiers PDF.

[[page]]
Le stockage émarge dans le cloud


Avec StorSimple, une start-up fondée en mai 2009 et installée à Santa Clara, on passe à un service cloud reposant sur un appliance baptisé Armada pour stocker et sauvegarder ses données sur les plates-formes d'Amazon, de Microsoft ou d'Iron Mountain. Avec un appliance Armada, les clients ont la possibilité de stocker des données localement et de faire des sauvegardes instantanées dans le cloud, de mettre en cache les données, de les stocker ou cde les répliquer dans un cloud. Pour ce faire, l'Armada Storage Appliance dispose des fonctions de déduplication primaire, de compression et de hiérarchisation automatique des données. Les informations conservées dans les nuages apparaissent comme des données stockées localement et s'intègrent à l'environnement de stockage existant.


Ursheet Parikh, CEO et fondateur de StorSimple

L'Armada identifie et enregistre «à chaud» toutes les modifications de données et les stocke sur des disques SSD. Lorsque les données sont considérées comme moins fréquemment utilisés, elles sont automatiquement migrés vers des solutions de stockage moins onéreuses comme le Serial ATA. Toutes les data stockées dans le cloud sont cryptées. « A la différence de certains acteurs qui sont obligés de s'associer pour proposer un service de stockage cloud, nous proposons une solution clef en main » assure Ursheet Parikh, CEO et fondateur de StorSimple avec Guru Pangal, anciennement directeur général et vice-président chez Brocade. La société est financée à hauteur de 8 millions de dollars par Redpoint Ventures et Index Ventures. « Notre appliance est simplement vu comme un volume iSCSI et travaille en temps réel pour optimiser le travail des applications », explique encore Ursheet Parikh, auparavant responsable marketing produit chez Cisco.

3 appliances au catalogue

La start-up joue également la complémentarité avec les solutions de Microsoft. Son service de stockage en ligne est optimisé pour les applications SharePoint, Exchange, Windows et les machines virtuelles. Enfin quand une entreprise utilise l'option capture instantanée, le service CloudClone va transférer une image complète, passée à la moulinette compression et déduplication avant d'arriver sur le cloud. Par la suite, les changements supplémentaires seront de simples snapshoot. Trois appliances sont en fait proposés par StorSimple : l'Armada 1010 (à partir de 10 000 $) pour un volume de stockage de 10 To, l'Armada 5010 (30K$) pour 20 To et l'Armada 7010 (50K$) pour 40 To. On paie en fait pour ce qui est injecté dans le cloud et la prochaine release du logiciel maison supportera la migration automatique vers un nouvel appliance.


Christophe Morton, directeur marketing de StorSimple avec l'appliance Armada 1010

(...)

(15/11/2010 17:40:38)

Enterasys lance un outil d'administration des datacenters virtuels

Enterasys Networks, filiale de Siemens Enterprise Communications, a dévoilé cette semaine un outil de management qui apporte une visibilité, de même que des fonctions d'automatisation et de contrôle aux ressources hébergées dans des centres de données virtuels. Le DCM (Data Center Manager) est la composante clé d'une stratégie relative aux datacenters, annoncée au début de l'année par l'éditeur. Celle-ci repose aussi bien sur l'intégration de partenariats auprès de plusieurs fournisseurs, que sur les capacités d'administration de ses commutateurs. « DCM est l'outil d'administration des commutateurs d'Enterasys qui fournit de la visibilité sur les différentes briques serveurs,  stockages et applications dans des environnements physiques et virtuels », a indiqué le constructeur. La solution fournit des informations à l'aide d'un outil qui suit et dresse un historique des mouvements d'une machine virtuelle, donnant aux utilisateurs l'assurance de la bonne allocation des ressources.

Regrouper des machines virtuelles selon différents rôles

Brocade et Cisco sont également capables de faire de même avec leurs solutions d'administration des datacenters et des  commutateurs. Le premier, grâce à  une offre baptisée Automatic Migration of Port Profiles, le second via un service qui est un composant intégral de sa plate-forme d'accès serveur/commutateur/réseau baptisée United Computing System (UCS). Les capacités de DCM et de ses produits concurrents donnent aux administrateurs informatiques la possibilité de regrouper des machines virtuelles selon différents rôles. La solution détecte les enregistrements et l'authentification des machines virtuelles, le contrôle d'accès, les tâches d'administration pour VLAN, les classe et la qualité des services, et enfin le contrôle du trafic du réseau. En utilisant le service d'Enterasys, les équipes IT peuvent avoir une vue du serveur virtuel et de l'environnement réseau. Un processus d'allocation unifié permet d'automatiser des règles individuelles sur des données variées au sein de fabric du commutateur.

La solution d'Enterasys fonctionne avec les produits de virtualisation des serveurs pour Citrix, Microsoft et VMware. Le logiciel est disponible dès à présent en deux versions : l'une basique, limitée à 10 hyperviseurs ESX de Vmware ou XenServer de Citrix et 100 machines virtuelles sur le réseau. La seconde, plus avancée, supporte jusqu'à 50 ESX ou XenServer pour 1 000 machines virtuelles.

(...)

(15/11/2010 17:01:15)

Stockage : EMC acquiert Isilon

La consolidation dans le secteur du stockage bat son plein. L'année 2010 a été riche en acquisition et la fin de l'année ne dément pas ce dynamisme. Au coeur des mouvements, EMC revendique depuis 1 semaine la palme de la gourmandise avec deux acquisitions. La plus récente concerne le rachat d'Isilon, spécialiste du stockage en cluster pour des clients à fort volume de données (notamment les chaînes de télévision, mais aussi les scientifiques à travers le décodage du génome par exemple). Le prix de l'acquisition est de 2,25 milliards de dollars. Pour mémoire, HP a racheté 3Par pour 2,4 milliards de dollars au mois de septembre dernier.

Sur les termes financiers, EMC va racheter des actions Isilon au prix de 33,85 dollars. Les discussions pour cet accord avaient été dévoilées par la presse économique américaine au mois d'octobre dernier. Dans le communiqué commun, EMC souhaite que l'opération se finalise avant la fin de cette année. Sur le plan technique, la société de Hopkinton devrait coupler Atmos et les solutions d'Isilon pour fournir une infrastructure de sauvegarde dédiée à la gestion des « Big Data ». Cette activité pourrait représenter jusqu'à 1 milliard de dollars au second semestre 2012. Pour Joe Tucci, PDG d'EMC, « les vagues inéluctables du cloud computing  et des données massives, sont une réalité. Les clients recherchent donc de nouveaux moyens pour stocker, protéger, sécuriser et ajouter de l'intelligence à l'énorme quantité d'informations qu'ils accumuleront au cours de la prochaine décennie. EMC, en combinaison avec Isilon, se situe au carrefour de ces tendances avec des produits de premier plan. »

Bus Tech auparavant


Il y a moins d'une semaine, EMC avait annoncé l'acquisition de Bus-Tech. Cette dernière, basée à Bedford, dans le Massachusetts, fournit des VTL (Virtual Tape Library), un système de stockage comprenant un serveur, plusieurs disques et un logiciel émulant cet espace disque en bande magnétique. Bus-Tech propose des solutions à destination des mainframes, elle concurrençait directement IBM dans la sauvegarde des données sur les grands systèmes.

Le montant de cette transaction n'a pas été annoncé. Bus-Tech sera intégré à la division « Backup Recovery System » d'EMC.

(...)

(15/11/2010 11:02:30)

Tribune : Michel Calméjane, DG de Colt France

Le Cloud Computing, est avant tout un accélérateur de tendance. Le rapport d'étude réalisé pour le sénat par le cabinet Greenwich chiffrait pour la France l'assiette fiscale à risque du e-commerce et des systèmes d'informations des entreprises à 73 Md€, dans le cas d'une migration massive vers un modèle externalisé.

La prise de conscience est générale : dans une compétition européenne d'optimisation des recettes fiscales, la localisation physique des données est le nouveau Walhalla. Je parle bien sur de Walhalla, en Australie, lieu des premières ruées vers l'or.

Les données sont le nouvel or noir, les Google, Bing et autres moteurs de recherche les nouvelles plateformes de forage, les réseaux de fibre leur structure de transport et l'iPad et l'iPhone les pompes à distribuer l'énergie numérique. Sans surprise, les Etats Unis sont les premiers à exploiter le filon, et il serait temps que les pays détenteurs de ces réserves s'organisent, sous peine de pillage en règle : le Cloud est partout et nulle part, mais les bases de données géo-localisent une assiette fiscale « on demand » dans les nouvelles usines de raffinage que sont les datacenters. Et si le monde est plat (1), les réflexes restent séculaires. L'économie du quaternaire sera sensible aux même externalités que l'économie industrielle ou des services, à la différence près de la vitesse de propagation. Il est d'autant plus urgent de préciser certains détails.

Se poser les bonnes questions

Qui dit nouveaux territoires pense forcément frontières, et par extension défense des frontières. Mais dans le nouveau modèle, les stratégies de sécurisation basée sur la défense des bordures sont caduques. Vouloir « re-périmétriser » un Cloud Public, revient à tenter de refermer la boîte de Pandore en étant soi-même à l'intérieur. Inutile de préciser que la tentation de s'enfermer seul dans la dite boîte me paraît une stratégie de court terme, même en compagnie de l'espérance.

Lire la suite sur le Blog Experts Le Monde Informatique.fr

(...)

(15/11/2010 11:33:05)

Croissance faible pour les microprocesseurs au 3ème trimestre

En unité, ce marché a progressé de 2,1%, par rapport au second trimestre 2010, en valeur la croissance est de 2,5%. En moyenne, ces progressions séquentielles sont de 10,6% (en unité) et de 9% (en valeur), le troisième trimestre 2010 est donc un trimestre faible. Par rapport au Q3 2009, la progression en unités, est de 8,6%, en valeur de 24,1%.

«Les constructeurs sont devenus très réactifs à toute velléité de la demande finale qui s'est  relâchée » a déclaré Shane Rau directeur du marché semi-conducteurs pour PC chez IDC.

Pour l'ensemble du marché mondial des microprocesseurs pour PC au Q3 2010, Intel a obtenu 80,4 % de parts de marché en unité, une perte de 0,3%, tandis que AMD a obtenu 19,2%, un gain de 0,2%, et VIA Technologies gagné 0,4%, une progression de 0,1%.

Dans le segment des processeurs pour PC portables, Intel a obtenu 85,9%, une perte de 0,2%. AMD a terminé le trimestre avec 13,7% (inchangé) et VIA gagné 0,4%, un gain de 0,2%. Dans le segment « serveur PC / station de travail », Intel a terminé le trimestre avec une part de marché de 93,7%, un gain de 0,2% et AMD gagné 6,3%, une perte de 0,2%. Dans le segment des processeurs pour PC, Intel a obtenu 71,8%, une perte de 0,4%; AMD a obtenu 27,8%, un gain de 0,5%, et VIA gagné 0,4%. (...)

< Les 10 documents précédentsLes 10 documents suivants >