Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 13861 à 13870.

< Les 10 documents précédentsLes 10 documents suivants >


(09/09/2008 18:01:49)

L'informatique monumentale derrière l'accélérateur de particules du CERN

Demain, 10 septembre, le CERN (Organisation européenne pour la recherche nucléaire) inaugure enfin le LHC (grand collisionneur de hadrons), l'accélérateur de particules le plus puissant du monde. Ce tunnel souterrain de 27 km, situé sur la frontière franco-suisse près de Genève, sera le lieu d'expériences de physique attendues depuis des années. Les particules seront précipitées à grande vitesse les unes contre les autres. De ces collisions naîtront de nouvelles particules censées aider les scientifiques à mieux comprendre la naissance de notre monde. Pour récupérer les résultats de ces expériences, le LHC héberge de gigantesques détecteurs (45 m de long sur 22 m de haut) remplis de cellules de mesure qui enregistrent les traces de ces nouvelles particules et les convertissent en données numériques. « Ces détecteurs correspondent à ce que pourraient être des caméras de 150 millions de pixels », explique Wolfgang von Rüden, chef du département IT du CERN. Près de 15 peta-octets de données générées chaque année Lorsque le LHC aura atteint sa vitesse de croisière, sans doute début 2009, les expériences scientifiques menées à bien seront à l'origine d'un peta-octet de données chaque seconde... Après plusieurs nettoyages successifs afin de ne conserver que les données utiles, il en restera encore près de 1 Go par seconde. « L'équivalent d'un DVD toutes les cinq secondes », note Wolfgang von Rüden, chef du département IT du CERN. A raison de 100 jours de fonctionnement environ par an, cela représente presque 9 Peta-octets de données auxquelles il faut ajouter les informations de simulation. Ce sont donc 15 millions de milliards d'octets qui sortiront chaque année des essais du LHC ! Autant dire qu'un datacenter classique, même des plus puissants, n'y suffirait pas ! Aussi, dès les débuts du projet, l'organisation a opté pour un système de grille de données et de calcul (grid). Les quantités astronomiques d'informations que les scientifiques devront étudier sont distribuées sur différents systèmes pour être stockées et prétraitées. Une grille de trois niveaux répartie sur tous les continents [[page]]L'infrastructure serveur compte trois niveaux. Le premier, le tier 0, installé au Cern, stocke l'ensemble des informations sur disque et sur bande magnétique (5 Petaoctets de capacité de stockage sur disque et 16 Petaoctets sur bande). Onze autres centres informatiques dans le monde constituent le tier 1 (sept en Europe dont un à Lyon, deux aux Etats-Unis, un au Canada et un à Taïwan). Chacun obtient une copie des données et des métadonnées associées (calibrage, conditions de l'expérience, etc.). Enfin, plus d'une centaine de centres distribués viennent en tier 2 (dont un à Orsay, un à Marseille, un à Nantes, un à Clermont-Ferrand, etc.) Toutes ces informations sont synchronisées en temps réel avec l'ensemble des sites distants sur des bases Oracle. Les scientifiques des différents pays travaillent ainsi sur les toutes dernières données sorties du LHC. « Nous travaillons directement avec Oracle sur la technologie Streams qui permet une telle synchronisation, explique Wolfgang von Rüden. Nous avons un projet commun avec eux, tout comme avec Intel, HP ou Siemens, par exemple, dans le cadre de l'initiative Openlab. » Des technologies poussées dans leurs derniers retranchements [[page]]« You make it, we break it, c'est ce que nous disons à nos partenaires technologiques », plaisante le responsable IT. Vous le fabriquez, nous le cassons. Une boutade qui reflète bien la réalité. « Nous poussons les technologies dans leurs derniers retranchements. Nous avons souvent les versions bêta, voire alpha, des machines, par exemple. » Le centre du CERN (tier 0) héberge des grappes de PC classiques ainsi que quelques serveurs. Les plus puissants comptent quatre quadri-coeurs Intel. « En 2009, à Genève, nous devrions avoir une grille de 100 000 coeurs, détaille Wolfgang von Rüden. Et sans doute 150 000 coeurs, dès l'année d'après. » Pour choisir les machines qui constituent ces grappes, étonnamment le CERN fait appel au benchmark SpecINT qui mesure les capacités de calcul sur les nombres entiers des PC. Alors que la plupart du temps, les applications scientifiques s'appuient sur la performance en virgule flottante. « Les performances des entrées/sorties entre machines n'ont pas tellement d'importance, justifie ainsi Wolfgang von Rüden. Et finalement, le calcul en nombres entiers correspond davantage à notre charge de travail que le calcul en virgule flottante. Les analyses de données auxquelles les scientifiques procéderont impliquent davantage de comparaisons de données que de calculs en virgule flottante. » Une grille sous Linux avec un gestionnaire inspiré du projet EGEE [[page]]La grille fonctionne sous un Linux appelé Scientific Linux. Il s'agit d'une version compatible au niveau binaire avec la distribution de Red Hat, dont le noyau a été cependant quelque peu modifié par le CERN. Le système de gestion de la grille est un environnement Open Source qui s'appuie entre autres sur les techniques du projet Globus mais aussi sur des développements du CERN dans le cadre du projet européen EGEE (Enabling Grids for E-sciencE) qu'il chapeaute. Le réseau interne s'appuie sur Ethernet et le backbone sur du 10 Gbps. Quant aux liens entre les sites, sans surprise, il s'agit de fibre dédiée. « Nous avons besoin de marge pour nos communications, raconte Wolfgang von Rüden. Si un centre a un problème quelconque de transmission, il transfère ses données avec retard, et donc en quantité plus importante. Ce qui exige davantage de bande passante. » Ce sont environ 2 Go de données qui transitent chaque seconde sur les réseaux entre les centres de données. « Mais nous avons déjà eu, lors des essais, des pointes à 3 ou 4 Go. » Economiser l'énergie et l'espace, Green IT oblige Il est à noter qu'avec une telle infrastructure, le CERN surveille sa consommation électrique et donne, lui-aussi, dans le green IT. Dans ses appels d'offre, s'il regarde évidemment le prix des machines, il tient également compte « de la consommation électrique par rapport à la puissance de calcul fourni, ainsi que d'autres paramètres tel que le volume occupé ou la connexion au réseau, ajoute Wolfgang von Rüden. Cela nous permet de favoriser les fournisseurs qui offrent des solutions plus écologiques. » Le centre de calcul date des années 70 et consomme environ 4,7 MW avec une charge utile inférieure à 3 MW. « Il a été adapté aux besoins du LHC, mais dans les limites du possible, regrette le responsable IT. Et il est loin d'être aussi efficace que des solutions modernes. » Le CERN mène des études pour un nouveau centre plus adapté et plus performant qui verra le jour probablement vers la fin de 2011. Reste que demain, parmi les 6 000 employés du site genevois, 350 informaticiens assisteront avec fierté, mais forcément un peu d'angoisse, à l'inauguration. Ils ont passé des heures et des jours à mettre en place l'infrastructure informatique du LHC. Ils ont réalisé deux tests grandeur nature, en février et en mai, qui ont duré chacun quatre semaines. Alors pour eux, le Graal n'est sans doute pas le Boson de Higgs, la particule chérie des scientifiques, mais tout simplement le bon fonctionnement de la grille. (...)

(09/09/2008 16:30:01)

PHL Soft propose un IDE écrit en PHP pour l'AS/400

Utiliser le langage PHP, très répandu pour la mise au point d'applications Web, comme levier pour amener les développeurs vers la plateforme AS/400 d'IBM, c'est la démarche choisie par PHL Soft. Cet éditeur français s'est spécialisé dans les solutions destinées au serveur de Big Blue -renommé au fil du temps iSeries, puis System i et, désormais, Power Systems i. A l'occasion du prochain salon Serveurs et Applications, fin septembre, à Paris, il lancera officiellement un environnement de développement intégré (IDE) écrit en PHP, destiné à construire des applications de gestion. Une version gratuitement téléchargeable L'IDE PHP400 est décliné en deux versions. Pour en accélérer l'adoption, PHL Soft propose une version gratuite, Studio Express. La version payante, Studio Pro, sera quant à elle accessible sur abonnement, à partir de 1 500 euros par an pour un serveur d'entrée de gamme. Les deux offres comportent un framework de composants applicatifs, un requêteur SQL, un éditeur de texte, un gestionnaire de menus et un générateur PHP. La version disponible sur abonnement dispose en plus d'un gestionnaire de base de données, d'un atelier de développement PHP et d'un support personnalisé (support public sur la version gratuite). IBM a fait évoluer sa version de PHP « Il y a une pénurie de développeurs pour l'AS/400, rappelle Philippe Lachenko, fondateur et dirigeant de PHL Soft. En particulier, il n'y a pas de jeunes recrues connaissant le langage RPG utilisé dans cet environnement. » En outre, les éditeurs d'applications pour AS/400 souhaitent dépasser le RPG pour s'appuyer sur des outils permettant de développer des logiciels portables d'un environnement à l'autre. Ces dernières années, IBM a lui-même proposé des ouvertures, d'abord en ajoutant à son offre WebSphere des solutions Java pour l'AS/400, puis en se tournant vers le langage Open Source PHP, à la suite d'un accord avec l'éditeur Zend il y a trois ans. Pas assez complète au départ, la version de PHP adaptée pour l'AS/400 a bien évolué. « La dernière version, 5.2, comporte des fonctionnalités qui manquaient jusque-là », assure Philippe Lachenko. L'environnement intégré PHP400 sera téléchargeable début octobre sur le site PHP400.com, déjà ouvert par PHL Soft. (...)

(09/09/2008 15:39:36)

Google ramène à neuf mois la durée de conservation des logs

Souvent montré du doigt pour le peu de cas qu'il ferait du respect de la vie privée de ses utilisateurs, le pantagruélique Google vient de faire un pas en direction de ses détracteurs. Le moteur de recherche a effet annoncé, ce lundi, qu'il ne conserverait plus désormais que pendant neuf mois les données de connexion des internautes effectuant leurs requêtes par son intermédiaire. Plus précisément, Google rendra anonyme les logs après trois trimestres de présence sur ses serveurs. Par cette initiative, Google diminue de moitié la durée de rétention des données de connexion de ses utilisateurs. En juin 2007, le géant du Web avait déjà effectué une démarche similaire, ramenant le laps de temps pendant lequel il conserve les logs de 24 à 18 mois. En ramenant à neuf mois la durée de conservation des données de connexion, Google entend mettre fin aux inquiétudes maintes fois exprimées par les instances chargées du respect de la vie privée aux Etats-Unis et en Europe. Le moteur de recherche ne se contente toutefois pas de montrer patte blanche et laisse entendre qu'en cédant aux exigences de ses observateurs le service rendu aux internautes risque de s'en trouver affecté. « Nous sommes heureux d'améliorer le respect de la vie privée, écrit Peter Fleischer, responsable des questions relatives à la vie privée chez Google, mais nous sommes également conscients qu'une potentielle diminution de la sécurité, de la qualité et de l'innovation, pourrait en résulter. » (...)

(09/09/2008 15:23:23)

Le stockage externe connaît sa plus forte progression depuis deux ans

La demande en capacité de stockage ne faiblit pas, bien au contraire. Elle est tirée par les modèles NAS et Open SAN, en hausse de 22% à 3,8 Md$ ainsi que par l'engouement pour l'iSCSI dont les ventes bondissent de 93,9%. Au deuxième trimestre, IDC estime que le marché de l'ensemble des systèmes de stockage externe a progressé de 16,7% à 4,1 Md$. Soit la plus forte hausse sur deux ans. Ce segment se taille la part du lion sur le marché de tous les systèmes de stockage qui a atteint un CA de 6,9 Md$ (+10,9%). En terme de volumétrie, tous les systèmes de stockage livrés atteignent 1,777 Peta Octets (million de milliards d'octets), en forte croissance de 43,7%. Succès d'une stratégie axée Open Source Parmi les acteurs du marché du stockage, c'est Sun qui réalise la meilleure performance avec une hausse de plus de 29% de son CA. Avec une part de marché portée à 7,1%, la société apparaît dans le top 5, derrière Dell (+14,2%), EMC (+19,7%). A l'inverse, les deux premiers, HP (18% du marché) et IBM (17,7%) marquent le pas. HP perd 1,2% de part de marché et IBM n'en gagne que 2,6%. Sun, qui promet d'ici la fin de l'année une offre basée sur des composants matériels standards, semble connaître enfin le succès avec sa stratégie axée sur l'open source. Fort de son rachat d'Equallogic, Dell s'arroge 32,8% du créneau de l'iSCSI en pleine expansion. On trouve derrière lui NetApp (14,6%) et EMC (14,1%). Notons qu'IBM procède aujourd'hui à un train impressionnant d'annonces qui capitalisent sur ses dernières acquisitions. (...)

(09/09/2008 14:35:24)

IBM refond sa gamme de stockage

Trois ans de travail pour 2500 chercheurs et développeurs, 2 Md$ d'investissement, voilà ce qu'a coûté à IBM la refonte complète de son offre de stockage. Il l'a également adaptée à la prolifération croissante des données « non structurées », c'est à dire non répertoriées dans une base de donnée. Pour la société, les données liées à un individu vont se multiplier par 16 d'ici à 2020, passant d'environ 1 To actuellement à 16 To dans douze ans. Parmi les annonces, beaucoup correspondent à de vrais-faux nouveaux produits, qui ont simplement eu droit à une mise à jour, ou ont déjà été annoncés suite à une acquisition. C'est le cas du système à bande TS3500 au catalogue depuis avril 2007 ou du système de stockage sur disque issu de l'acquisition de XIV. Peu de réelles annonces mais une nouvelle approche du stockage D'autres, au contraire, n'en sont encore qu'au stade du prototype comme le projet Quicksilver autour du SSD. En revanche, IBM a bien proposé un nouveau logiciel pour faciliter la virtualisation du stockage sur SAN, et des capacités RAID 6 pour son système DS8000. En fait, plus que de réelles nouveautés, IBM a surtout présenté sa nouvelle vision du stockage. Pour le directeur marketing, Charlie Andrews, « ce que les clients devraient voir, c'est une approche beaucoup plus orientée solution pour régler leurs problèmes. ». Il faudra alors « parler au client de ses besoins, et de là regarder les solutions que nous pouvons lui proposer. » Une approche révolutionnaire... (...)

(09/09/2008 14:13:56)

Deux éditeurs français finalisent leur deuxième levée de fonds

Deux start-up françaises intervenant dans le secteur de l'IT viennent de récolter des capitaux significatifs, et ce pour la deuxième fois. Dun côté, Oslo Software, jeune société d'origine lyonnaise spécialisée dans les outils d'orchestration dynamique des ressources, a finalisé une deuxième levée de fonds de 2,7 M€ auprès de Script Capital, Capitalaira et NGI. Grâce à ce financement, l'éditeur compte accroître son avantage concurrentiel en accentuant ses investissements en R&D, en renforçant ses équipes et en déployant une stratégie commerciale adaptée aux attentes de ses clients en France comme à l'international. Une partie de ses investissements sera notamment destinée au développement de la filiale américaine de l'éditeur installée en Californie depuis deux ans. 7 M€ pour le spécialiste du stockage Active Circle Le Français Active Circle, fournisseur de solutions de stockage et d'archivage, a également conclu une deuxième levée de fonds d'un montant de 7 M€ auprès d'Innovacom, son investisseur historique, d'OTC Asset Management et du fonds européen Quest For Growth. Ces fonds devraient lui permettre de franchir une nouvelle étape, et d'accélérer son développement commercial à l'international. (...)

< Les 10 documents précédentsLes 10 documents suivants >