Flux RSS

HPC

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

138 documents trouvés, affichage des résultats 1 à 10.

Les 10 documents suivants >


(02/04/2012 13:31:45)

Intel prépare un «super processeur» HPC dopé à l'InfiniBand

« Le super processeur devrait être capable de délivrer une bande passante de données élevée grâce à l'utilisation de la technologie d'interconnexion InfiniBand, » a déclaré Diane Bryant, vice-présidente et directrice générale de l'Intel Datacenter and Connected System Group. L'InfiniBand est une technologie d'interconnexion à faible latence qui sert de liaison entre les serveurs en cluster et les unités de stockage dans les datacenters. Cette technologie permet aussi d'établir une communication à faible latence entre les processeurs et les serveurs dans les data centers, et sollicite peu la CPU.

Diane Bryant n'a pas précisé comment la technologie InfiniBand serait utilisée avec le super processeur. Cependant, le chip pourrait être intégré directement dans la gamme des processeurs pour supercalculateurs d'Intel existant, comme les chips Xeon serveur et le co-processeur MIC à plusieurs noyaux intégrés (Many-Integrates Cores), mélangeant des noyaux x86 standards avec des noyaux spécialisés pour stimuler les tâches HPC.

Un gain à chercher du coté des entrées/sorties 

Les derniers processeurs d'Intel, le Xeon E5 et la puce MIC 50-core, nom de code Knights Corners, ont été associés en parallèle dans un supercalculateur du nom de Stampede. Celui-ci devrait être mis en service l'an prochain au Texas Advanced Computing Center de l'Université du Texas. Le supercalculateur délivrera des performances de pointe de 10 pétaflops (soit 10 000 milliards d'opérations à virgule flottante par seconde). « Les composants capables de délivrer une bande passante élevée seront très importants pour les systèmes haute performance à venir, » a déclaré Diane Bryant.

Le projet de super processeur vient après l'annonce faite en janvier par Intel de la reprise de l'activité InfiniBand de Qlogic. Selon le fondeur, cette acquisition partielle va permettre à Intel d'intégrer la technologie de bande passante à l'intérieur des systèmes, alors que les processeurs sont toujours plus puissants et que la performance des serveurs ne cesse de s'accroître. Cette acquisition s'inscrit aussi dans une stratégie plus large de la course à l'informatique exaflopique, pour fournir du stockage haute performance et plus de bande passante serveur.

Développer l'usage d'InfiniBand 

« Au départ, l'objectif de la technologie d'interconnexion InfiniBand était de remplacer des protocoles comme le Fibre Channel et l'Ethernet. Mais la technologie a mis trop de temps à se développer, » a déclaré Nathan Brookwood, analyste principal chez Insight 64. «L'intégration de l'InifiniBand dans une puce va faciliter la construction de systèmes haute-performance à faible latence. On voit tout de suite quels avantages il est possible d'en tirer, » a dit l'analyste.

L'intégration de l'InfiniBand dans de futurs chips MIC pourrait donner à Intel les moyens de créer des systèmes à densité élevée pour l'interconnexion dans les supercalculateurs. « Cependant, avec ce type de structure, la question est de savoir comment va travailler le logiciel, » a ajouté Nathan Brookwood.

Intel n'a pas donné davantage de détails sur ces puces, son porte-parole indiquant simplement que l'entreprise n'avait pas encore d'informations spécifiques à communiquer sur les futures implémentations de l'InifiniBand.

 

(...)

(16/03/2012 11:17:30)

Airbus renforce sa puissance de calcul avec les POD HP

Pour Airbus, le calcul intensif est une activité stratégique, car il constitue un facteur décisif pour la simulation nécessaire à la conception des avions. Pour améliorer ses capacités en HPC (high-performance computing), Airbus a travaillé avec HP et EDF Optimal Solution, une filiale du groupe EDF spécialisée dans les questions d'éco-énergie, pour déployer en 2011 deux datacenters en conteneur (POD ou Performance Optimized datacenter) sur son site de Toulouse. Le constructeur aéronautique a également installé un de ces POD à Hambourg en 2010. Ces conteneurs sont utilisés par la division ingénierie d'Airbus dont les méthodes de travail nécessitent des puissances de calcul considérables pour concevoir et tester les avions. Grâce à ces installations dédiées au calcul intensif, Airbus revendique la 29e place au niveau mondial, selon le Top 500 officiel des supercalculateurs publié en juin 2011. 

La division «  Flight Physics  » du constructeur aéronautique utilise du calcul intensif depuis 1994 pour réaliser des simulations aérodynamiques et aérolastiques. La puissance de traitement des machines a augmenté de façon exponentielle depuis lors et celles-ci dont devenues indispensable au développement des appareils. Pour Eric Chaput, responsable des outils et méthodes du département Flight Physics chez Airbus, l'utilisation de POD a permis de réduire graduellement le nombre d'essais intensifs en soufflerie et de diminuer à la fois le temps et les coûts.

Une consommation de 500 kWh par heure

À Toulouse, les deux POD disposent d'une puissance de 300 téraflops. À Hambourg, celle-ci s'élève à 200 téraflops. Ces conteneurs contiennent tous les éléments d'un datacenter traditionnel  - serveurs, stockage, réseau, ainsi que des systèmes intégrés d'alimentation électrique et de refroidissement - mais dans une boite rectangulaire de 12 mètres de long. Dans la ville rose, l'alimentation et le branchement électrique sont gérés par HP, en partenariat avec EDF. En Allemagne, c'est Airbus qui en a la charge, avec des partenaires locaux. Les deux conteneurs du site toulousain sont directement reliés au LAN de l'avionneur pour éviter les risques de latence du réseau. Airbus a également précisé qu'ils seraient appelés à s'étendre, si nécessaire. 

Les deux conteneurs rassemblent un total de 2 016 serveurs lames Proliant BL280 G6 configurés en grappe, ce qui permet de fournir, selon HP, des capacités équivalentes à celles d'un centre de calcul  d'une surface proche de 1 000 mètres carrés. Les deux POD peuvent former jusqu'à 1 600 noeuds de calcul, soit 12 coeurs par noeud, ce qui correspond à 5 400 disques durs environ par conteneur.   Les POD de HP sont hébergés dans une structure climatisée, fonctionnant 24 heures sur 24 et consomment environ 500 kilowatts par heure. Cela peut sembler élevé, mais comme l'a fait remarquer Marc Morere, responsable des projets et architectures IT chez Airbus, ces conteneurs consomment beaucoup moins qu'une structure en « brick and mortar ».  « Un datacenter traditionnel équivalent à nos POD toulousains requiert environ 1,8  mégawatt par heure en termes d'électricité pour pouvoir fonctionner, dont seulement un mégawatt pour alimenter les machines  », a-t-il indiqué. «  Le pourcentage restant peut par exemple servir à fournir l'air conditionné ou à charger les batteries de secours  », a-t-il ajouté.

À Toulouse, les POD consomment 250 kilowatts par heure d'électricité de secours  ». D'après Airbus, l'installation de ces deux conteneurs  a diminué par 10 la consommation électrique sur cinq ans, tout en doublant la puissance de traitement. Profitant d'un ratio d'efficacité énergétique (PUE) de 1,25. Airbus indique avoir réduit ses coûts d'exploitation tout en disposant d'une puissance de plus de 15 KW/m2. HP a fourni les services de gestion des datacenters et a géré leur transport depuis l'usine européenne d'Erskine en Écosse,  de même que leur déploiement et leur  mise en service.

 


(...)

(09/03/2012 10:14:41)

Dossier HPC : La course aux flops dopée aux GPU

Plus de 8% de croissance par an est attendu en Europe pour le marché du HPC (High Performance Computing ou Calcul haute performance) jusqu'en 2015 (source Intersect360 Research) : ce secteur ne connaît pas la crise ! Et pour cause, les besoins de performances pures ne cessent de croître dans les entreprises. Entre la finance, le cinéma, l'industrie, la santé, les universités, etc., tous les secteurs d'activités aujourd'hui réclament de la puissance de calcul pour des solutions d'ingénierie en 3D, de la simulation, des applications médicales et financières. 

Bref, le supercalculateur n'est plus seulement réservé au calcul scientifique dans les grands centres de R&D. Ce marché dominé historiquement par IBM et Bull en Europe et en France attise la concurrence des fabricants, mais aussi celle des fondeurs et leurs architectures. On assiste ainsi à une discrète bataille entre les CPU d'un côté et les GPU de l'autre. Aujourd'hui, les CPU dominent, mais les projets de machines HPC combinant peu de CPU et beaucoup de GPU poursuivent leur croissance. (...)

(07/03/2012 16:42:45)

Intel cible les datacenters avec ses puces Xeon E5

Reposant sur la micro-architecture Sandy Bridge, les puces  pour serveurs Xeon E5-2600 (bi-socket) et E5-1600 (mono-socket), incluent jusqu'à 8 coeurs et sont jusqu'à 80% plus rapides que leurs prédécesseurs, a déclaré Bernadette Andrietti, directrice d'Intel EMEA, lors d'une conférence de presse à Paris. Ces processeurs consommeraient également moitié moins d'énergie que leurs prédécesseurs, selon Intel. Les puces Xeon E5 sont cadencées à 2,9 GHz max pour le E5-2680, avec 20 Mo de cache, et un mode Turbo 2.0 autorisant une surcadence ponctuelle de 900 MHz, et 3,6 GHz pour le E5-1600 . Quatre canaux mémoire sont désormais proposés au lieu de trois précédemment pour un maximum de 768 Go en DDR3/1600. Jean-Philippe Laurent, directeur technique Intel EMEA, nous a précisé que cette puce était composée de 2,3 milliards de transistors contre 1,570 pour la génération précédente (Xeon 5600).

La dernière mise à jour majeure d'Intel sur le segment des serveurs remonte à mars 2010, quand la firme avait annoncé ses puces Xeon 5600. Le portefeuille serveur actuel d'Intel comprend des processeurs d'entrée de gamme Xeon E3 (bi-socket), basés sur l'architecture Sandy Bridge, et haut de gamme Xeon E7, reposant sur l'architecture Westmere avec un maximum de 10 coeurs.

Un lancement avec les partenaires éditeurs et constructeurs

Pour le lancement de l'E5, Intel a travaillé avec les principaux fournisseurs de logiciels et les constructeurs de serveurs habituels pour valider des innovations techniques. Le fondeur recense déjà plus de 400 modèles de serveurs reposant sur sa nouvelle puce. Bull, IBM, Hewlett-Packard, SGI et Dell sont parmi les entreprises qui lancent de nouveaux serveurs. IBM indique que sa lame bi-socket BladeCenter HS23 est jusqu'à 62% plus rapide, supporte quatre fois plus de mémoire vive et accueille 20% de machines virtuelles supplémentaires que la BladeCenter HS22. SGI présentait aussi à Paris sa lame équipée de deux puces Xeon E5-2600. Intel a également déjà fourni des puces E5 pour un supercalculateur baptisé Stampede, qui sera déployé en 2013 au Texas Advanced Computing de l'Université du Texas. Le supercalculateur devrait offrir des performances en crête de 10 petaflops (soit 10 000 milliards d'opérations par seconde). Si les processeurs E5 assumeront 20% de la charge de travail, les 80% restant seront assurés par les puces spécialisées Mic .

La croissance globale du trafic Internet met à rude épreuve les centres de calcul, et ces nouveaux processeurs serveur aideront à répondre plus rapidement aux requêtes, a déclaré Mme Andrietti. « Pour 120 tablettes ou 600 smartphones mis en service, il faut un serveur supplémentaire. En 2015, selon une de nos études réalisées fin 2011, il y aura 3,1 milliards d'utilisateurs connectés, et aujourd'hui chaque utilisateur génère 4 Go de données par jour. » Les nouveaux processeurs devraient également aider à augmenter la virtualisation de serveurs et contribuer à réduire les coûts  en alimentation électrique et en  refroidissement. Mais Intel ne se focalise pas uniquement sur la performance. L'entreprise se penche également sur les autres défis liés aux datacenters, à savoir l'amélioration du stockage, de réseau et la sécurité, a expliqué  Mme Andrietti.

[[page]]

Le Xeon E5 intègre par exemple un contrôleur PCIe 3.0 qui double la bande passante disponible en entrée/sortie et réduit la latence de 30%, ce qui pourrait aider au déploiement de machines virtuelles et de clouds à grande échelle. Les Xeon E5-2600 processeurs sont les premiers à intégrer le bus PCI-Express 3.0 sur le processeur. La technologie PCIe 3.0 déplace des données avec un débit de 8 Gbit/s , ce qui est une amélioration considérable par rapport à la précédente génération PCI-Express 2.0, qui plafonne à 5 Gbit/s.

Cette génération de puce est également la première à permettre un accès direct à la cache du processeur sans passer par la mémoire vive (fonction Data Direct I/O). La technologie réduit le besoin de rafraîchir la DRAM en limitant les aller/retour dans la mémoire système, afin de réduire la latence et d'économiser un peu d'énergie. Cette famille de puce supporte également les instructions AVX (Advanced Vector Extension) , qui permet d'améliorer les performances des applications gourmandes en calculs, telles que l'analyse financière, la création de contenus médias, ou la recherche médicale.

Intel a également lancé un contrôleur Ethernet 10 Gigabit pour cartes mères ce qui devrait faciliter le déploiement de cette technologie dans les serveurs. La généralisation de la technologie 10 Gigabit Ethernet devrait en effet accélérer le trafic réseau dans les datacenters.

La famille de processeurs Xeon E5-2600 est composée de 17 modèles, dont les prix vont de 198 $ à 2,050 $ (pour 1000 unités). En plus de cela, trois puces Xeon E5-1600 à mono-socket seront attendues pour les serveurs et les stations de travail, à des prix allant de 284 à 1080 $.

 

 

(...)

(02/03/2012 12:34:14)

Le supercalculateur américain Titan attendu cet automne

Le supercalculateur Titan du laboratoire américain d'Oak Ridge, installé dans l'Etat du Tennessee, est sur les rails pour être achevé à l'automne prochain. Il délivrera une puissance située entre 10 et 20 pétaflops, un pétaflop correspondant à 10 puissance 15 opérations en virgule flottante par seconde. L'ORNL (Oak Ridge National Laboratory) l'a annoncé cette semaine en indiquant que la phase de développement initiale venait d'être achevée. Le Titan, qui repose sur un système Cray XK6, résultera d'une mise à jour du Jaguar, l'actuel supercalculateur de l'ORNL, dont la performance de pointe atteint 3,3 petaflops.

En ce moment, le plus performant des HPC est japonais, selon le plus récent classement Top500 (une liste publiée en juin et novembre de chaque année). Il s'agit du K Computer qui délivre 10,51 petaflops. Le dernier supercalculateur américain à avoir occupé la première place du Top500 était justement le Jaguar de l'ORNL. Mais cela remonte à novembre 2009. Par la suite, les Etats-Unis sont entrés en compétition avec la Chine et le Japon qui détiennent les systèmes les plus puissants depuis début 2010.

La Russie construit elle aussi un système de 10 petaflops. Celui-ci devrait être en service fin 2013. Au début de cette même année, on attend le Stampede, un autre HPC de 10 petaflops qui devrait être opérationnel à l'Université du Texas.

Un moyen pour Intel et AMD de montrer leurs performances

La prochaine étape pour ces supercalculateurs sera d'atteindre la performance exaflopique, ce qui les rendra, vers 2018, environ 100 fois plus rapides que les systèmes actuels.

Le Titan associe les derniers processeurs Opteron 6200 à 16 coeurs d'AMD et les puces graphiques Tesla de Nvidia. Les Opteron à 16 coeurs remplacent celles à six coeurs pour apporter au système une puissance de traitement plutôt polyvalente, tandis que les processeurs graphiques boostent les calculs scientifiques et mathématiques. La capacité mémoire et les liaisons d'interconnexion du supercalculateur ont également été mises à jour. A terme, le Titan disposera de 299 008 coeurs et 600 To de mémoire. Il a été annoncé pour la première fois en octobre 2011.

Les supercalculateurs permettent aux fabricants de processeurs de faire valoir les performances de leurs puces. Si AMD peut prendre l'avantage lorsque le Titan sera en service, le Stampede utilisera de son côté les prochains Xeon E5 et le co-processeur Knights Corner conçu pour accélérer les applications spécialisées.

(...)

(24/02/2012 12:17:54)

La CE veut favoriser l'efficacité énergétique des supercalculateurs

Le calcul exascale est utilisé dans différents secteurs industriels pour effectuer des simulations rapides. Le projet annoncé par la Commission européenne ce mois-ci vise à doubler l'investissement dans le domaine du calcul haute performance, lequel passera de 630 millions actuellement à 1,2 milliard d'euros avant 2020. Cependant, les infrastructures HPC demandent beaucoup d'énergie et de ressources. Comparativement, un supercalculateur peut consommer à lui tout seul plus d'énergie qu'un centre de calcul de taille moyenne et peut coûter plus de 75.000 euros par jour en frais de fonctionnement.

CoolEmAll, un consortium d'entreprises et d'administrations, prévoit de s'attaquer à la question en développant deux outils majeurs destinés à aider les industries à mieux contrôler et à bien gérer la consommation d'énergie de leurs supercalculateurs. L'élément principal du projet se présente comme un ensemble de designs hardware Open Source basé sur un serveur haute densité du nom de RECS Compute Box sur lequel travaille déjà la start-up allemande Christmann Informationstechnik.

Un datacenter dans une boite

Qualifiée de « datacenter in a box », la RECS Compute Box se compose de plusieurs racks serveurs haute densité, chacun contenant jusqu'à 18 modules saturés de processeurs. Ce qui signifie qu'une seule de ces armoires peut contenir jusqu'à 600 lames. Cette configuration représente environ 10 fois ce que l'on trouve habituellement dans des racks traditionnels. Chaque Compute Box contient également 18 capteurs thermiques et 18 capteurs électriques intégrés dans l'infrastructure « baseboard », ce qui permet de contrôler séparément l'état du réseau, la vitesse du ventilateur et la consommation électrique de chacun des 18 blocs.

La Commission européenne espère que ces designs haute densité et ces serveurs à haut rendement seront commercialisés et se retrouveront dans les futurs projets HPC européens. Outre le matériel, CoolEmAll se penche également sur le développement de logiciels de simulation, de visualisation et d'aide à la décision pour proposer un outil de modélisation en temps réel pour les entreprises qui utilisent le calcul haute performance. L'objectif est de permettre aux planificateurs des centres de calcul d'estimer l'efficacité énergétique en fonction de l'emplacement physique des serveurs, d'effectuer des mesures pour optimiser le refroidissement, et d'utiliser au mieux les applications de contrôle.

Le projet CoolEmAll réunit sept organismes de recherche dans le domaine du HPC, dont le Groupe 451, le Poznan Supercomputing and Networking Center (PSNC) en Pologne et le High Performance Computing Center Stuttgart (HLRS) de l'Université de Stuttgart, en Allemagne.

(...)

(20/02/2012 10:30:52)

Le supercalculateur Bull Curie désormais opérationnel au GENCI

Le GENCI (Grand Equipement National de Calcul Intensif) est une société civile détenue à 49 % par l'Etat, 20 % par le CEA, 20 % par le CNRS, 10 % par les Universités et 1 % par l'INRIA. Il vient de démarrer le supercalculateur Curie, conçu par le Français Bull, qui accumule les records : 2 Pflop/s grâce à 92000 coeurs, 15 Po de stockage avec une vitesse de transfert de 250 Go/s... Le supercalculateur est doté de processeurs Intel Xeon Sandy Bridge et du logiciel de gestion de simulation QMC=Chem.

« Avec une architecture équilibrée, unique en Europe, qui combine une puissance de calcul élevée et une capacité très grande de traitement des données, Curie va donner les moyens aux chercheurs français et européens de relever les plus grands défis scientifiques dans des domaines tels que la climatologie, les sciences de la vie ou encore l'astrophysique », souligne Catherine Rivière, PDG du GENCI. Dans les travaux qui vont être prochainement traités sur ce supercalculateur, on trouve de nombreuses disciplines : simulation des interactions chimiques à l'oeuvre dans la maladie d'Alzheimer, analyse de l'effet de la « matière noire » du Big Bang à nos jours, travaux du CEA dans la fusion nucléaire en lien avec ITER, modélisations climatologiques...

Curie est hébergé au Très Grand Centre de Calcul (TGCC) du CEA à Bruyères-le-Châtel. Il a été construit en deux phases entre fin 2010 et fin 2011. Son ouverture aux chercheurs se fera le 1er mars 2012 après une période de tests. Sa création, qui s'inscrit dans un plan d'investissement de 100 millions d'euros sur cinq ans, constitue la contribution française au programme européen PRACE (Partnership for Advanced Computing in Europe) qui regroupe 24 pays. Ce programme va permettre de créer un réseau de quatre supercalculateurs pétaflopiques européens.

(...)

(03/02/2012 16:34:06)

L'IBM Watson bientôt opérationnel en France

Système massivement parallèle d'analyses sémantiques et statistiques, le superordinateur IBM Watson, développé par l'équipe de David Ferrucci, a fait sensation en février 2011 en réussissant à participer avec succès au jeu TV Jeopardy. Développé après le projet Deep Blue, un superordinateur spécialisé dans le jeu d'échecs, Watson repose sur la plate-forme processeur Power7 (avec pas moins de 2 880 coeurs), des algorithmes développés pour la recherche et les briques logicielles Content Analytics de Cognos pour l'analyse du langage naturel et Infosphere Big Insight, un framework Hadoop associé à une base Netezza pour digérer la documentation.  Lors de sa journée Innovation à Bois-Colombes, IBM France nous a détaillé les nouvelles ambitions de la plate-forme Watson. Jean-Claude Jesionka, architecte chez IBM France, nous a évoqué devant un simulateur Watson (voir illustration principale), les projets et développements à venir.

Après  les jeux télévisés, IBM a réfléchi à quels usages commerciaux pourrait être utilisée la plate-forme Watson. Quelques pistes sont rapidement apparues. Avec ses capacités à comprendre le langage naturel et à assimiler les données spécialisées, Watson peut assister des médecins pour affiner les diagnostics ou envisager des idées alternatives en analysant simplement les symptômes, les antécédents familiaux et les analyses médicales. L'hôpital du Mont Sinaï à Los Angeles a déjà commencé à travailler, pour une phase de tests, avec le Watson. Les médecins peuvent renseigner sur une console le superordinateur qui propose ensuite très rapidement des pistes de diagnostics. Il s'agit bien d'un simple assistant, mais très bien renseigné, car il est nourri des dernières publications médicales. Watson n'a pas simplement été placé dans un hôpital, il a été adapté aux problématiques médicales avec des algorithmes spécifiques.

Traiter les questions d'ordre juridique ou financière

IBM travaille également avec la mutuelle américaine WellPoint, dans le but de trouver les meilleurs traitements médicaux, c'est-à-dire les plus efficaces et les moins chers. D'autres domaines sont aujourd'hui envisagés par IBM comme le corpus juridique, le trading financier et l'économie. Big Blue envisage par exemple de proposer des consultations de Watson en mode service à partir d'une console. Dès cette année, la firme d'Armonk va également commercialiser non pas Watson mais des morceaux de Watson, Content Analytics et Infosphere Big Insight qui sont déjà opérationnels chez certains clients de la solution SPSS. Ce sont ces briques du Watson qui vont être proposées en France cette année.

Si une trentaine de personnes avaient travaillé sur le Watson version Jeopardy, une centaine de personnes sont aujourd'hui rassemblées dans une division d'IBM Software pour personnaliser Watson aux besoins des clients. La démarche est collaborative avec une sélection de clients pour développer des projets. Des partenariats ont ainsi été noués pour le portage de Watson en français qui est actuellement en cours à Montpellier. Le marché francophone sera en effet le second à accueillir la technologie Watson, avant les marchés hispaniques et chinois. Le français a simplement été immédiatement choisi après l'anglais, car la compréhension sémantique est plus facile qu'en espagnol et en mandarin.

Un Watson 2 de la taille d'une tablette

Mais l'avenir de Watson passe par la miniaturisation avec un Watson 2 beaucoup plus compact. Dans une dizaine d'années, Watson sera de la taille d'une tablette. Si on regarde le passé, c'est tout à fait possible, nous a expliqué Jean-Claude Jesionka. « En 1958, nous avions commencé à travailler sur un ordinateur avec l'ambition de battre un champion d'échecs. Nous n'avons réussi à le faire que 30 ans après en 1997, mais nous avons mis moins de 10 ans pour arriver à Watson. Sur le principe, on peut considérer que Watson est un système expert, mais sur le fond beaucoup de choses ont changé. Les systèmes apprenants [comme Watson] sont une des voies sur lesquelles IBM s'est engagé pour gérer les données non structurées.

[[page]]

Avec Watson, IBM veut aller très vite en recherchant des partenariats de co-innovation avec les clients. « Une entreprise nous aide à développer ce projet et on lui laisse l'exclusivité pendant 2 à 3 ans. Passé cette période, la propriété intellectuelle reste chez IBM et peut enrichir d'autres programmes ».

Des puces neuronales à l'étude

Le programme Watson est entré dans sa deuxième phase avec des applications commerciales et à terme des versions appliances ne sont pas exclues même si aujourd'hui, il est difficile de faire rentrer 2 880 coeurs dans un seul serveur. Avec un seul coeur Power7, il faudrait 2 heures de traitement à Watson pour répondre à une seule question. Il reste donc encore du chemin à parcourir et IBM explore plusieurs voies pour y arriver avec notamment les puces silicium inspirées des neurosciences, les SyNAPSE.

(...)

(30/01/2012 15:16:38)

Dassault Systèmes prépare un cloud public concurrent d'Andromède

Selon nos confrères de BFM Business, Dassault Systèmes qui a abandonné le projet de cloud national Andromède, travaille sur une plate-forme concurrente.  « On a trouvé des entreprises réputées et dynamiques avec lesquelles travailler, qui ont une vraie ambition et peuvent agir vite », a déclaré vendredi dernier sur la radio Bernard Charlès, directeur général de l'éditeur. « Fin décembre, nous avons constaté que la structure de coûts [d'Andromède] ne permettait pas d'avoir une solution compétitive car les coûts étaient trop élevés. Donc on s'est retiré de la structure mais pas du projet, que je porte depuis deux ans et demi ».

Depuis le départ de Dassault Système le 22 décembre 2011, la plate-forme cloud Andromède destinée aux acteurs du secteur public et dotée à l'origine d'une enveloppe budgétaire de 285 millions d'euros (voir détails du financement), ne rassemble plus qu'Orange pour la partie infrastructures et du groupe Thales (étroitement lié à Dassault Aviation) pour la partie sécurité. Si certaines SSII se sont montrées intéressées par le projet Andromède - Atos, Cap Gemini et même Bull - rien n'a été annoncé et le projet se réactive avant l'élection présidentielle. Vivek Badrinath, directeur exécutif d'Orange Business Services, nous a ainsi confié le jeudi 26 janvier qu'un directeur général allait être nommé pour Andromède et que le projet allait s'accélérer. « On espère boucler assez vite en 2012 en tout cas pour la couche infrastructure ». Le datacenter de Val Rueil en Normandie, dont l'ouverture est attendue en juin 2012, assurera une partie de la charge. « Il s'agit d'un investissement important pour le groupe et les clients. C'est une de nos contributions au projet Andromède », a expliqué lors de la même conférence de presse, Didier Jaubert, senior vice-président global services chez OBS.

Bull pour remplacer Dassault Systèmes dans Andromède

« Si Dassault Systèmes souhaite déposer un nouveau projet de cloud computing en vue d'un soutien des investissements d'avenir, alors on examinera ce projet dès lors qu'il sera déposé », a indiqué aujourd'hui à l'AFP Eric Besson ministère de l'Industrie. Le 12 janvier dernier, invité aux voeux de l'Afdel, M. Besson avait indiqué qu'il allait réunir le 20 janvier [une réunion finalement reportée sine die] le consortium porteur du projet Andromède afin de le remobiliser et d'analyser la situation après le retrait de l'un de ses acteurs majeurs. « Il y a une ou deux autres options qui se dessine. Je suis raisonnablement optimiste sur les chances d'y arriver ». Rappelons que le projet de cloud national Andromède a été lancé par le premier ministre François Fillon en 2009. Trois ans après la première brique, la nomination d'un directeur général, semble enfin arriver, bientôt suivie par l'inauguration du datacenter, et enfin l'arrivée d'un troisième partenaire technologique. Selon le journal les Échos, « Bull discuterait déjà avec Orange et l'État, et pourrait apporter au consortium son expérience dans le domaine des supercalculateurs informatiques ».

À la question de savoir qui pourrait remplacer Dassault Systèmes sur le plan financier dans le projet Andromède, Vivek Badrinath nous a étonnement répondu jeudi dernier  que l'éditeur français apportait une expérience utilisateur très intéressante pour faire tourner des applications très lourdes dans un environnement cloud. Une expérience que l'éditeur a donc décidé d'apporter à d'autres entreprises au sein d'un cloud public concurrent. Un projet que Dassault Systèmes ne souhaite pas détailler plus avant pour l'instant.

(...)

Les 10 documents suivants >