Flux RSS
HPC
138 documents trouvés, affichage des résultats 111 à 120.
| < Les 10 documents précédents | Les 10 documents suivants > |
(12/02/2010 14:38:50)
Annuels Bull : les ventes de matériel et l'infogérance ont tiré le chiffre d'affaires
Le groupe français Bull a achevé son année sur un chiffre d'affaires consolidé en retrait de -2% par rapport à l'an dernier mais en légère progression (+0,3%) sur ses activités principales, souligne Didier Lamouche, son PDG. Le dirigeant insiste aussi sur la rentabilité opérationnelle qui dépasse les attentes, avec un bénéfice d'exploitation atteignant 27,6 M€, alors que l'objectif annuel était fixé à 25 M€. « Notre activité est stable, notamment par comparaison avec certains de nos concurrents ». Le PDG confirme comme prévu la remontée des commandes sur la fin de l'année, après le « trou d'air » subi au troisième trimestre. « Nous attendions +13%, nous avons eu +19% sur les prises de commandes ». En 2009 et sur le quatrième trimestre, ce sont les ventes portant sur l'offre de matériel et sur l'offre Extreme Computing (supercalculateurs) qui ont tiré le chiffre d'affaires. Ces activités ont progressé de 5,8% à 357,7 M€ sur l'année (32,2% du chiffre d'affaires global). Les activités Services et solutions (43,5% du CA) et Maintenance (17,3% du CA) ont de leur côté respectivement baissé de 2,23% et 2,88% sur l'année. Pour 2010, malgré la remontée des commandes, le groupe n'attend « pas de reprise de la conjoncture économique avant le second semestre ». Les premières offres communes avec Amesys, spécialiste des systèmes critiques, rachetées en novembre dernier, seront disponibles à partir du milieu de l'année. Amesys a développé une expertise combinée de l'électronique et de l'informatique, principalement sur les secteurs de la Défense et de l'aéronautique, des télécoms, des transports et de l'énergie.
50% de croissance sur l'offre d'Extreme Computing
Sur les ventes de matériel, le PDG de Bull avance deux motifs de satisfaction sur l'exercice écoulé. « D'une part, nos offres de serveurs 'legacy' GCOS et Unix ont été très stables, d'autre part, notre offre Extreme Computing a crû d'environ 50% et nous espérons une croissance équivalente en 2010. Nous comptons atteindre 15% de ce marché en Europe en 2010. » Didier Lamouche ajoute que l'activité de stockage sécurisé deBull a également progressé, sur un marché en décroissance. Sur le terrain des supercalculateurs, au quatrième trimestre, Bull a été retenu par le pétrolien brésilien Petrobras : « Nous leur avons vendu en décembre le plus gros système d'Amérique du Sud, d'une puissance de 250 Teraflops ».
[[page]]
Sur le trimestre, des contrats ont également été signés avec le secteur de la Défense, en France et au Royaume-Uni. Didier Lamouche indique que la nouvelle de famille de supercalculateurs éco-efficace, Bullx, lancée en juin, a été remarquée par le magazine américain HPCWire parmi les cinq technologies à suivre en 2010. « Nous sommes redevenus un acteur européen majeur de l'économie numérique. Ce n'était pas le cas il y a cinq ans », rappelle le PDG. Il cite aussi en exemple le récent film d'animation, Planète 51, produit par Ilion Animation Studios, dont le rendu graphique a été optimisé sur une ferme de serveurs mise à niveau avec l'offre Extreme Computing de Bull.
En 2010, une offre de calcul à la demande autour du HPC
Sur la partie services, au quatrième trimestre, l'activité d'infogérance de Bull a remporté un contrat important avec un producteur de papier australien. « Nous avons signé le 24 décembre avec PaperlinX qui a 'outsourcé' auprès de Bull l'informatique de ses seize filiales européennes, explique Didier Lamouche. Il s'agit d'un contrat de cinq ans qui va nous conduire à rationaliser leur informatique sur deux datacenters au lieu de seize ». Le PDG rappelle aussi que Bull est l'hébergeur du portail de l'administration française Mon.service-public.fr. En 2010, parmi les vecteurs principaux de progression figurent l'Extreme Computing et l'infogérance. Le groupe va mettre en production un datacenter dans l'Ouest parisien, qui va héberger toutes ses nouvelles technologies de HPC. « Nous voulons fournir une offre de cloud computing dédiée au HPC, explique Didier Lamouche. Il s'agira d'une solution de puissance de calcul à la demande ». Des services de cette nature existent déjà, mais réservées à certains clients (Renault, par exemple). La nouvelle offre pourra s'ouvrir aux PME. Le groupe va par ailleurs embaucher 600 personnes, dont 250 en France, sur le développement de logiciels, l'intégration de systèmes et sur les offres communes prévues avec Amesys. Le fournisseur continuera à faire croître ses efforts de R&D. Il prévoit notamment de livrer deux nouvelles offres sur l'Extreme Computing. (...)
Colt enrichit son offre cloud computing
Depuis juillet 2009, Colt, opérateur de réseau et de services télécoms a développé une plateforme de services cloud computing. Cette offre se décline en plusieurs briques, la première, baptisée Colt Managed Workspace est de type Saas (Software as a Service) avec l'accès à distance de fonctions applicatives reposant sur Sharepoint, Office, Visio, Project, Messaging ou Blackberry. La deuxième brique s'oriente vers le mode PaaS (Plateform as a Service), sous le nom Colt Cloud Infrastructures Services. Elle permet de disposer de serveurs dédiés, virtuels ou mutualisés et de capacités de stockage, s'adaptant aux besoins évolutifs des applications métiers. Enfin, la dernière brique qui vient d'être dévoilée, s'adresse aux besoins de Grid Computing des entreprises. Pour cela, Colt a noué un partenariat avec Tibco et plus exactement la solution DataSynapse (rachetée par Tibco pour 28 millions de dollars à la fin de l'année 2009). Cette dernière propose des outils de réservation et d'allocation dynamique des ressources matérielles et logicielles en environnement distribué. Au sein de cette dernière brique, on distingue en fait trois offres : - le Managed Grid Services qui est une solution d'infrastructure souple et dédiée, spécialement conçue pour les applications haute performance. - l'In Life Management Applications permet aux équipes informatiques de gérer un plus large éventail d'applications métiers et de définir des indicateurs spécifiques pour dimensionner dynamiquement leur infrastructure IT. - le Grid Extension-IaaS (Infrastructure as a Service) facilite l'extension en toute sécurité les capacités de plateformes existantes au sein d'entreprises, en permettant leur rattachement à un pool de ressources Colt à la demande. Pour Béatrice Rollet, directrice marketing de la division Colt Managed Services chez Colt France « les offres avec Tibco nous permettent de répondre à nos clients pour qui les problématiques transactionnelles, demandant une grande puissance de calcul dans un environnement de haute qualité de service, sont essentielles » et d'ajouter « les secteurs financiers et énergétiques sont très en pointe sur ces sujets, mais également les secteurs des services (jeux en ligne, grande distribution) ou des médias, à travers le passage au numérique ». (...)
(03/02/2010 16:03:03)Tukwila, la dernière puce Itanium d'Intel, arrive enfin
Après de nombreux retards et des problèmes de développement reportant sa sortie depuis plusieurs semestres, Intel a déclaré mardi avoir commencé la fabrication de son processeur Itanium connu sous le nom de code Tukwila. En février dernier, Intel avait déjà reporté la sortie de la puce pour y ajouter des interconnexions plus rapides et un support pour la mémoire DDR3 notamment. En octobre, la sortie avait à nouveau été retardée pour permettra l'ajout d'éléments améliorant l'évolutivité des applications. Selon le blog d'Intel, le lancement officiel de la puce est cette fois fixé pour le premier trimestre de cette année. « Tukwila sera probablement lancé lundi, » a déclaré Nathan Brookwood, analyste chez Insight 64, ajoutant qu'il était « plus qu'un peu tard, », mais pas trop tard. Le marché des processeurs haut de gamme évolue à un rythme glaciaire, et les architectures complexes comme celles des Itanium demandent du temps pour la mise point et la fabrication. «Dans cette catégorie de marché, il est plus important de livrer la bonne puce plutôt que de la lancer trop tôt, » a ainsi déclaré Nathan Brookwood. « Les systèmes fonctionnant avec des architectures haut de gamme comme celles de l'Itanium doivent être robustes et fiables » précise-t-il encore. Cette annonce arrive peu avant l'International Solid State Circuits Conference, qui se tiendra à San Francisco du 7 au 11 février prochain, et où Sun Microsystems et IBM seront présents pour discuter de leurs processeurs pour serveurs haut de gamme. Intel fera une conférence de presse lundi, pour annoncer un nouveau produit, mais un porte-parole a refusé de confirmer s'il s'agissait de Tukwila. Une puce pour serveurs à haute disponibilité Processeur 64 bits gravé en 65 nm, Tukwila a été conçu pour fonctionner sur des serveurs à faible tolérance de pannes nécessitant. C'est le plus rapide des processeurs Intel Itanium, « jamais réalisé, » précise le constructeur. Il apporte de nombreuses performances et une architecture améliorée qui dynamisent les fonctions système. « Tukwila fait plus que doubler les performances de l'Itanium précédant et apporte plus d'évolutivité, de fiabilité ainsi que des fonctions de virtualisation», indique Intel. La puce qui intègre quatre coeurs , est une sérieuse remise à niveau de l'actuelle puce Itanium série 9100, nom de code Montecito, introduite en 2006. Elle est en concurrence directe avec les processeurs des serveurs haut de gamme proposés par Oracle/Sun (Sparc) et IBM (Power7 bientôt dévoilé). Même si Intel n'a pas eu beaucoup de succès avec son processeur Itanium - seuls quelques fournisseurs comme HP - qui a abandonné son PA-Risc - ont intégré ce type de puces dans leurs systèmes,« les fournisseurs attendent une mise à jour de l'Itanium pour rester en compétition avec le prochain Power7 d'IBM, » a indiqué Nathan Brookwood. « Malgré le retard, il n'y a pas d'incertitude sur l'avenir de l'Itanium : Intel a défini une feuille de route de six ans pour son processeur, » a-t-il ajouté. Poulson le successeur de Tukwila, qui sera gravé en 32 nanomètres, est déjà sur les rails (Intel n'a pas fourni de calendrier pour la livraison de Poulson) et Kittson déjà nommé pour lui succéder. Au cours du premier semestre 2010, Intel doit lancer d'autres puces serveur. Sont attendues les Westmere pour serveurs bas et milieu de gamme, mais surtout la Nehalem-EX, « la puce serveur la plus rapide d'Intel à ce jour, » selon Paul Otellini PDG d'Intel. Nehalem-EX, une puce huit coeurs, destinée aux systèmes haut de gamme gérant les bases de données, « fait nettement évoluer les serveurs x86, mais n'égale pas l'Itanium en matière d'architecture et de robustesse, » selon Nathan Brookwood. Les puces Itanium ont toujours été destinées à concurrencer les mainframe et grands systèmes Unix avec des solutions comme la gamme Integrity NonStop Server de HP. (...)
(26/01/2010 17:36:57)Un zeste de virtualisation pour assouplir l'usage d'un supercalculateur Red Storm
Financé par les laboratoires Sandia, la US National Science Foundation, et réalisé en collaboration avec des chercheurs de Northwestern University d'Evanston, Illinois, et de l'Université du Nouveau-Mexique, ce projet a pour but « de créer avec les machines virtuelles un environnement plus souple pour les utilisateurs de super ordinateurs, sans sacrifier les performances ni l'évolutivité, » comme l'a déclaré Kevin Pedretti, le chercheur qui dirige le projet chez Sandia. Ce n'est pas la première fois que Sandia teste la virtualisation de supercalculateur. L'été dernier, deux chercheurs de Sandia ont étudié l'utilisation de l'hyperviseur Linux Lguest pour lancer 1 million de noeuds sur un autre supercalculateur de Sandia, afin de reproduire un botnet massif, pour affiner certaines recherches. Mais jusqu'à présent, le supercomputing ne s'intéressait guère à la virtualisation. Selon Kevin Pedretti, il s'agirait même du premier essai systématique de virtualisation pour les plates-formes HPC (calcul haute performance). « La communauté HPC, dans sa sagesse très conventionnelle, jugeait le coût de la virtualisation trop important par rapport à son utilité», a convenu Kevin Pedretti, dans une interview par email. « Nous espérons montrer qu'il est possible d'obtenir des coûts raisonnables avec une machine virtuelle pour des applications scientifiques de toute nature, y compris celles nécessitant une exécution à grande échelle ». Kevin Pedretti soutient que la virtualisation pourrait s'avérer précieuse pour les chercheurs souhaitant faire des simulations à grande échelle ou des calculs intensifs, car ils ne seraient plus tenus d'utiliser uniquement les applications s'exécutant sur les systèmes des super ordinateurs. Les tests ont montré que les programmes virtualisés fonctionnaient à 95 pour cent de la vitesse du calculateur. [[page]] Pour réaliser ces essais, les chercheurs ont obtenu 12 heures de temps dédiées sur le super calculateur Red Storm de Sandia (248 Tflops). Construit sur une base Cray XT4 tournant sous Linux, Red Storm, classé 17ème supercalculateur le plus puissant du monde par Top500.org, est doté de 12 960 processeurs de type AMD Opteron (6720 double coeurs et 6240 quadri coeurs soit un total de 38 400 coeurs). Le système a été utilisé pour réaliser un calcul de 204 TFlops (mille milliards d'opérations en virgule flottante par seconde). Ici, les tests de virtualisation effectués sur les 6 240 noeuds de calcul quadri coeurs, ont consisté à faire tourner les applications en modes réels et virtuels. Le test de référence a été réalisé dans l'environnement Red Storm natif, lequel utilise un système d'exploitation allégé, Catamount Lightweight Kernel (LWK). Pour effectuer le test virtuel, les chercheurs ont démarré leur propre version de LWK - en fait la prochaine génération du système Catamount , prénommée Kitten - sur Red Storm. Pour exécuter la machine virtuelle, Kitten a été auparavant intégré à Palacios, la machine virtuelle développée par la Northwestern University, et l'Université du Nouveau-Mexique. Les machines virtuelles ont ensuite booté sur Catamount comme OS invités. Les applications de test ont été ensuite lancées depuis l'outil de démarrage des applications inclus dans Red Storm, conformément au protocole standard. « Du point de vue de l'utilisateur, il n'y a pas de différence visible par rapport à l'environnement logiciel habituel de Red Storm, » a indiqué Pedretti. Différents types de programmes ont été testés, y compris de simples opérations d'analyse comparative et deux applications opérationnelles, le code de simulation CTH propre à Sandia et un logiciel de simulation hydrodynamique, SAIC Adaptive Grid Eulerian (SAGE). Les programmes ont été progressivement exécutés sur deux et jusqu'à 6 240 noeuds, en fonction du programme. Les chercheurs ont décidé de tester uniquement la solution de virtualisation développée pour les environnements de calcul HPC parce que les logiciels de virtualisation ordinaire, tel que Xen, sont plus orientés vers la consolidation des serveurs plutôt que vers le calcul informatique à haute performance. L'utilisation du logiciel HPC permet aux chercheurs d'affiner leurs réglages à un degré que ne permettraient pas les hyperviseurs ordinaires. (...)
(17/12/2009 12:33:19)12 téraflops dans une station de travail universitaire
En faisant une recherche sur Bing Images avec le mot supercomputer, vous n'obtiendrez rien de semblable à la dernière création de l'Université d'Anvers : une super station de travail baptisée Fastra II qui dispose d'une puissance de calcul de plusieurs téraflops ! Soit l'équivalent d'une baie informatique, mais à un prix beaucoup plus compétitif : 6000 euros.
Le premier super PC de l'Université d'Anvers, la Fastra, intégrait 4 cartes graphiques biprocesseur (soit 8 GPU au total). Par comparaison, le Fastra II a un total de 13 unités de calcul graphique (six GTX295 double GPU et une GTX275 mono GPU). Tout cela permet donc à la Fastra II de fournir une puissance de calcul de 12 téraflops (12 300 milliards d'opérations en virgule flottante par seconde). La plupart des ordinateurs fournissent quelques gigaflops (milliards d'opérations en virgule flottante par seconde ), et les plus rapides des supercomputers du TOP500 arrivent à 1000 billions. Il faut toutefois relativiser les performances de cette super station de travail qui correspond à un usage bien spécifique et qui ne prend pas en compte certaines contraintes propres aux applications métiers de type décisionnelle. La Fastra II utilise toute cette puissance de calcul graphique pour afficher des résolutions HD, et en 3D, de structures osseuses. Bien que toute cette puissance ne soit pas facilement exploitable pour des travaux courants dans un bureau d'études, elle ne manquera pas d'impressionner les passionnés de calcul intensif.
Les chercheurs de l'Université ont effectué quelques modifications sur les composants pour créer Fastra II, dont un boitier sur mesure pour accueillir la carte mère et toutes les cartes graphiques. Un bios spécial ainsi qu'un noyau Linux 64 bits personnalisé ont également été développés pour gérer cette armada . La Fastra II est toujours en phase de développement et les améliorations futures peuvent être consultées sur le site Web officiel (...)
L'US Air Force commande 2200 PS3 pour construire un supercalculateur
Un article récent de notre confrère Information Week révèle que le centre de recherche de l'US Air Force à Rome dans l'état de New York a présenté une demande d'achat portant sur 2 200 consoles de jeux Sony PS3 (299 euros l'unité environ). Conçue par IBM, Sony et Toshiba, la puce Cell, cadencée à 3,2 GHz, repose sur un coeur principal PowerPC et huit autres unités spécifiques offrant une puissance de calcul vectoriel de 230,4 GigaFlops. Cette commande fait suite à un premier test avec 336 PS3 utilisées pour faire du calcul intensif, la spécialité de ce centre. Spécialement adaptées pour fonctionner sous Linux, ces consoles de jeux sont reliées entre elles sur un réseau Ethernet afin de former un cluster de puissance. Les processeurs Cell qui équipent les PS3 sont particulièrement bien adaptés pour développer un supercalculateur « bon marché ». Des logiciels commerciaux et développés en interne sont ensuite utilisés pour traiter et analyser des vidéos haute définition, compiler plusieurs images radars pour former une représentation HD et même essayer de créer un ordinateur neuromorphique capable de fonctionner comme le cerveau humain. Un choix réfléchi après une sévère évaluation Pour ce programme test, le centre de recherche militaire de Rome (NY) a bénéficié d'un financement de 2 millions de dollars pour évaluer et développer de nouvelles technologies de calcul intensif. Avant de choisir la PS3 comme plateforme de référence pour la construction de ce super calculateur, l'US Air Force avait testé plusieurs solutions dont une ferme de serveurs Intel Xeon. Mais au final, le rapport prix/puissance de la console de jeux était beaucoup plus intéressant pour construire un supercalculateur. D'autres services publics comme le laboratoire national de Los Alamos ou le centre d'étude américain sur la cybercriminalité ont également construit des supercomputers PS3 pour reproduire les fonctions neurologiques du cerveau humain ou « casser » les mots de passe utilisés pour verrouiller des informations dans des affaires pédophiles. (...)
(01/10/2009 16:15:52)Nvidia présente sa nouvelle architecture de processeur Fermi portée vers le HPC
Changement de stratégie oblige, quand Nvidia annonce une nouvelle carte, il met désormais davantage l'accent sur sa puissance de calcul que sur ses performances graphiques. A l'occasion de sa conférence GPU Technology Conference, à San Francisco en Californie, le constructeur a ainsi présenté son nouveau GT300 et son architecture Fermi, non pas comme un simple GPU mais comme un processeur adapté au HPC (High performance computing, calcul haute performance). Le GT300, conçu avec un procédé en 40 nm, n'héberge pas moins de 3 milliards de transistors. C'est près de 40% de transistors en plus que le RV870 des cartes de DirectX 11 de la série Radeon HD 5800 qu'AMD vient juste d'annoncer. La carte accueille 512 coeurs Cuda (Compute unified device architecture) organisés en 16 groupes de 32. C'est plus du double du contenu des cartes GT200. Nvidia annonce des performances en virgule flottante pour son nouveau produit huit fois plus importantes que pour ces anciens GT200. L'architecture Fermi organise ses 16 cartes processeurs de 32 coeurs Cuda autour d'un cache de niveau 2 de 768k qu'elles partagent. Un meta-scheduler -le GigaThread- distribue des groupes de threads (instructions élémentaires) au scheduler de chacun des 32 processeurs. Ces « dual-warp schedulers » sont en réalité capables de distribuer deux vagues de 32 threads par cycle d'horloge. Les 512 coeurs Cuda de Fermi utilisent par ailleurs un calcul en virgule flottante plus performant que l'architecture des précédentes architectures de Nvidia. Ils sont en particulier capables d'exécuter des calculs arithmétiques en double précision, une technique essentielle, par exemple, pour le calcul haute performance des applications de simulation. (...)
(28/09/2009 17:15:39)Nvidia et Microsoft vont promouvoir ensemble leurs outils de HPC
La fête du calcul haute performance continue. Après l'annonce d'un supercalculateur de bureau chez SGI et du rachat d'un éditeur spécialisé par Microsoft la semaine dernière, l'éditeur de Windows s'allie aujourd'hui à Nvidia dans ce domaine. Les deux entreprises - qui collaboraient déjà ensemble sur ces thématiques- vont tout simplement promouvoir ensemble le couple Tesla-Windows HPC Server 2008. Ces deux produits sont respectivement un processeur graphique et un système d'exploitation adaptés aux environnements parallèles du calcul haute performance. Windows HPC Server 2008 est la version de l'OS de Microsoft adaptée au clustering. Tesla est un processeur graphique haut de gamme destiné à soulager les processeurs classiques des calculs les plus lourds. Nvidia équipe cette architecture de son outil CUDA de répartition des traitements entre CPU et GPU. (...)
(22/09/2009 16:57:51)Octane III, le super calculateur de bureau selon SGI
Après Cray l'année dernière , c'est au tour de Silicon Graphics International (SGI) de proposer un supercalculateur de bureau, l'Octane III, exploitant ses technologies de cluster. Bien connue pour ses serveurs et ses stations de travail haut de gamme, SGI qui a été racheté en mai dernier par Rackable Systems, ne vend pas encore son Octane III à la Fnac, mais ce jour n'est sans doute plus très loin. Depuis dix ans, les principaux composants du HPC (high performance computing) se sont standardisés et les systèmes deviennent de plus en plus faciles à utiliser et à administrer. En version de base (à partir de 5450 € HT), ce premier "super ordinateur personnel" est livré avec un processeur quadri-coeurs Intel Xeon 5500 (Nehalem) épaulé par 80 Go de mémoire vive. L'entreprise précise que plusieurs configurations sont bien sûr possibles avec des cartes graphiques Nvidia pour faire office de super station de travail ou avec des processeurs de faible puissance, les Atom double coeurs d'Intel en l'occurrence. SGI explique que cette dernière configuration répond à des demandes bien précises : le développement applicatif et les tests de code. A l'autre extrémité de la gamme, la société propose un système avec une carte mère qui intégre pas moins de 10 duals sockets pour accueillir jusqu'à 20 processeurs quadri-coeurs Xeon L5520 (soit un total de 80 coeurs !) avec 240 à 960 Go de mémoire vive (jusqu'à 96 Go par noeud). Un super calculateur facturé ici au prix fort : 36 100 € HT. Au chapitre des performances, cet Octane III plafonne à 726 Mégaflops (opérations par seconde en virgule flottante) ce qui ne le glisse même pas dans le top 500 des machines les plus puissantes du monde. "Mais ce n'est pas la mission de cette machine" nuance SGI, "nous avons préféré mettre l'accent sur la facilité d'utilisation". Steve Conway, analyste chez IDC, explique que "ce super PC SGI s'attaque à un marché mondial estimé à 2 milliards de dollars. Il s'agit plus précisément du segment HPC de bureau, soit des systèmes de calcul qui coûtent moins de 100 000 $. Ce marché devrait même atteindre 2,7 milliards de dollars d'ici à 2013. Soit une croissance de près de 6% par an, ce qui représente un bon chiffre étant donné l'effondrement des ventes de serveurs cette année. D'autres grands fournisseurs ont déjà présenté des produits qui entrent dans cette catégorie. Nvidia a ainsi dévoilé l'automne dernier son Tesla Personal Supercomputer disponible à partir de 6800 €. Ce dernier exploite les cartes graphiques maison pour fournir une capacité de calcul de 4 Teraflops. Ce marché des HPC de bureau est essentiellement composé de clients qui n'ont généralement pas d'expérience dans le domaine des supercalculateurs. "Voilà pourquoi la mise en service et l'utilisation doivent être le plus facile possible" précise Steve Conway. Et sur ce dernier point, SGI a de bons antécédents pour la production de systèmes "plug and play". Steve Conway s'interroge toutefois sur l'étiquette 'supercalculateur personnel' du système de SGI. Si certains utilisateurs l'utiliseront bien en tant que tel, il pourrait également faire office de serveur pour un groupe de travail. SGI propose d'ailleurs son produit préconfiguré avec Windows Server, Windows HPC Server 2008, Red Hat Enterprise Linux et Suse Linux Enterprise Server. Dernière attention pour l'utilisateur, le constructeur livre une liste de 50 applications compatibles HPC utilisées dans le génie civil, les sciences de la vie, l'exploration pétrolière et d'autres usages. Au client ensuite de choisir et d'installer ses logiciels. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |