Flux RSS
HPC

138 documents trouvés, affichage des résultats 81 à 90.
< Les 10 documents précédents | Les 10 documents suivants > |
(23/09/2010 16:13:52)
Microsoft instille du calcul partagé dans Windows HPC Server 2008 R2
La dernière version de HPC (High Performance Computing) Server peut être gérée avec des outils Windows, et « s'inscrit dans la tendance qui vise à faire sortir le HPC de son statut d'infrastructures spécialisées pour les intégrer à l'ensemble du processus informatique de l'entreprise » a déclaré Kyril Faenov, directeur général du HPC Group chez Microsoft. La mise à jour proposée peut prendre en charge des cycles de calcul sur des systèmes existants dans l'entreprise. « Le prochain Service Pack 1 mettant à jour HPC Server permettra également de l'associer à des cloud publics » a indiqué Microsoft. C'est l'administrateur système qui définit les paramètres indiquant quels cycles de calcul utiliser et décide si le processus s'effectue en arrière-plan ou s'arrête quand l'utilisateur tape sur son clavier. Les fonctionnalités sont similaires à celles du système Search for Extraterrestrial Intelligence, ou SETI@Home, qui sait utiliser la puissance de plusieurs millions d'ordinateurs là où elle est disponible pour effectuer ses calculs. Selon Kyril Faenov, le fait d'ouvrir cette possibilité à un produit basé sur Windows étendra le nombre d'utilisateur à cette technologie de puissance de calcul partagé. L'éditeur qui vise actuellement à étendre en priorité sa solution sur des clusters HPC de petites et moyennes entreprises pense que les entreprises et les gouvernements pourraient « devenir dépendants de ces systèmes de simulation et d'analyse à grande échelle ». Mais, même si HPC Server 2008 R2 est compatible avec des milliers de processeurs, Linux reste de loin le système d'exploitation dominant sur les ordinateurs très haut de gamme puisqu'il fait tourner 91% du Top 500 des super ordinateurs, laissant à peine 1% de part à Windows.
Intégrer le double boot
Selon Addison Snell, analyste chez Intersect360 Research, « la version mise à jour de HPC Server place Microsoft dans la bonne direction sur le marché du calcul haute performance. » Aujourd'hui, le constructeur Cray a déclaré que Windows HPC Server 2008 R2 serait disponible sur son supercalculateur Cray CX1 qui supporte à la fois les systèmes d'exploitation Linux et Windows. Le Cray CX1, qui coûte entre 25 000 et 100 000 dollars et accepte des processeurs pouvant accueillir jusqu'à 96 coeurs. La vitesse de calcul dépend de la configuration des processeurs et selon qu'ils utilisent ou non tous les accélérateurs GPU. « S'il utilisait des puces Intel, alors sa capacité de traitement serait probablement de l'ordre de 5 Tflops, » a déclaré Barry Bolding, vice-président de la division produit de Cray. Cette société a ajouté une capacité de double boot sur ces systèmes, car Barry Bolding indique que Microsoft a apporté à son logiciel des fonctionnalités qui rendent plus facile l'exécution de deux systèmes d'exploitation sur le même cluster. SGI, le concurrent de Cray, a également annoncé que son supercalculateur personnel Octane III ferait tourner Windows HPC Server 2008 R2.
Intel investit dans une société de gestion de cloud
Michael Jackson, PDG d'Adaptive Computing, confirme qu'il « utilisera cette somme pour recruter plusieurs dizaines d'employés. » Depuis sa création, « Adaptive Computing est rentable et sa croissance repose entièrement sur les bénéfices provenant des ventes de produits à la clientèle, » a encore déclaré son président. « Mais la demande est forte et la société a du mal à y répondre » a-t-il précisé. « L'investissement sera utilisé pour embaucher des personnes qui permettront d'offrir des services » a-t-il ajouté.
L'entreprise privée, qui a fait ses débuts il y a 9 ans sous le nom de Cluster Ressources avant de prendre l'identité Adaptive Computing l'année dernière, s'était spécialisée dans les systèmes de calcul haute performance. Elle a depuis adapté ses technologies Moab de répartition de la charge de travail à la gestion des environnements cloud. « C'est un domaine dans lequel tout le monde veut sa place en ce moment, » a déclaré Glenn O'Donnell, analyste chez Forrester Research qui indique que, actuellement, des entreprises très diverses « essayent d'introduire sur le marché des solutions destinées à aider les entreprises à construire leur propre cloud. » L'argument tient sur la promesse que les entreprises pourront disposer d'un service cloud en interne au sein de leur propre infrastructure - l'équivalent en quelque sorte « d'un service cloud Amazon de type EC2, » souligne Glenn O'Donnell. La différence d'Adaptive Computing réside dans sa capacité à fournir une automatisation des applications et des infrastructures, le tout dans un environnement cloud. « Sur ce sujet, l'offre d'Adaptive est de meilleur niveau » ajoute-t-il.
Une structuration capitalistique avant acquisition
Michael Jackson a précisé que les outils proposés par son entreprise se comportent comme un gestionnaire de système, qui sont compatibles avec de nombreuses technologies de provisionning et adaptés au management des unités de stockage, des réseaux et de la virtualisation. Le système ouvre également sur l'avenir puisqu'il proposera la mise en place de classe de service via des SLA (Service Level Agreement), de satisfaire aux besoins d'une informatique verte, etc. Paul Burns, analyste chez Neovise, un cabinet situé à Fort Collins (Colorado), considère que l'ensemble du secteur proposant des outils de management pour le cloud est encore assez immature et a vu émerger un grand nombre d'entreprises. Mais il pense que le secteur va commencer à être sujet à quelques acquisitions. Parmi les investisseurs d'Adaptive figurent Tudor Ventures, Epic et Intel Capital Ventures lequel affirme par ailleurs avoir investi plus de 9,5 milliards de dollars dans plus de 1 000 entreprises au cours des deux dernières décennies. Intel - qui vient d'acquérir McAfee pour 7,86 milliards de dollars - continue à étendre son développement. L'intérêt du fondeur à investir dans une entreprise comme Adaptive Computing repose sans doute sur le fait que celle-ci développe des outils pour des environnements cloud tournant sur des systèmes x86, majoritaires dans ce secteur.
Les trous noirs pour dynamiser les ordinateurs quantiques ?
Des scientifiques britanniques ont remarqué des similarités intrigantes entre les mathématiques de l'intrication quantique utilisés par les ordinateurs quantiques et ceux des trous noirs calculés via la théorie des cordes. L'équipe du London's Imperial College, dirigée par le professeur Mike Duff, décrit dans une publication comment il semble possible d'utiliser les théories relatives aux trous noirs (basées sur celle des cordes) afin d'effectuer des prédictions sur le comportement des particules intriquées « 4 qubits » (quantum bit). Tout cela peut paraître très abstrait, la publication en question étant destinée aux physiciens professionnels, mais les implications pourraient être importantes non seulement pour la physique, mais aussi pour l'informatique quantique.
Des calculs déjà difficiles à gérer
Ce serait la première fois que des mathématiques dérivés de la très controversée théorie des cordes pourraient être utilisés pour effectuer des prédictions à propos de n'importe quoi dans un univers vérifiable expérimentalement. Pour l'informatique quantique, cela ouvre potentiellement la voie vers des calculs de plus de 3 qubits en utilisant cette méthode. Un qubit est l'équivalent quantique d'un bit traditionnel mais constitué de particules intriquées, qu'Albert Einstein, en bon sceptique, avait qualifié de « sinistre action à distance ». Le principal problème est de travailler avec 2 ou 3 qubits impliquant des calculs tellement complexes qu'obtenir des résultats utiles par ce biais est difficilement réalisable.
« Cela ne prouvera pas que la théorie des cordes est la bonne « théorie du tout » recherchée par les astronomes et les physiciens des particules. Ce devrait néanmoins être très important pour les théoriciens puisque cela démontrera si oui ou non cette théorie est fonctionnelle, même si son application se trouve dans un domaine inattendu et complètement différent, l'informatique quantique », précise Mike Duff. Il affirme avoir été frappé pour la première fois par ce rapprochement lors d'une conférence de physique en Australie sur l'intrication quantique. De retour en Angleterre, il aurait réalisé que ces mathématiques étaient identiques à ceux qu'il avait développés quelques années auparavant pour expliquer les trous noirs. « Cela pourrait signifier quelque chose de très profond à propos du monde dans lequel nous vivons ou peut-être n'est-ce qu'une coïncidence. Dans tous les cas, c'est utile », conclut-il.
illustration: ordinateur quantique université d'Innsbruck
Crédit Photo: D.R
(...)
AMD envisage des serveurs équipés de puces de faible puissance
Après Microsoft avec des puces Intel Atom et certains fournisseurs de services cloud sur base Via Nano, AMD envisage également l'évaluation d'une plate-forme serveur basse consommation d'entrée de gamme reposant sur son architecture Bobcat. «Nous réfléchissons à une solution bénéficiant de ce design» a expliqué Donald Newell, le nouveau directeur technique d'AMD, transfuge d'Intel où il occupait précédemment le poste d'ingénieur en chef. « Il serait stupide de ne pas le faire. »
Le fondeur de Sunnyvale va bientôt commencer à expédier ses premières puces faible puissance Ontario exploitant l'architecture Bobcat pour équiper des portables ultrafins et des netbooks. Ces processeurs combinent une
unité de traitement et un circuit graphique sur un seul morceau de
de silicium. AMD, qui n'a pas encore offert des puces basse consommation dans le cadre de son offre serveur, trouverait avec l'Ontario la puce adéquate. À peine arrivée, Don Newell exploite de nouvelles pistes pour doper l'offre d'AMD. Au-delà de la simple amélioration des puces, il se penche également sur les aspects partage de la mémoire et gestion du réseau. Des points qui pourraient significativement augmenter les performances globales des serveurs. Chez Intel, le nouveau CTO d'AMD a travaillé sur le développement des puces de type SoC (Socket on a Chip) et des infrastructures pour centres de calcul.
Une phase de test
Il y a un intérêt croissant dans le développement de serveurs avec des puces basse consommation, et l'expérimentation est toujours une bonne chose, poursuit Don Newell. L'efficience énergétique des serveurs est devenue un des principaux axes de développement pour réduire la facture électrique des entreprises et les puces basse consommation sont peut-être la solution pour certains usages. Mais avant de proposer des processeurs Bobcat pour serveurs, la firme doit passer par une phase de tests et d'évaluations pour bien mesurer les avantages et les inconvénients de cette plate-forme. «Il y a seulement quelques études ... et il y a encore beaucoup de données à
collecter », souligne Donald Newell. « Cela dépend d'un certain nombre de facteurs... pour déterminer si, au final, le design sera bon ou mauvais. »
Un ensemble de processeurs de faible puissance peuvent fournir de meilleures performances par watt que des puces pour serveur beaucoup plus rapides, explique Don Newell. Mais les processeurs de type traditionnel pour serveurs sont également plus réactifs et fiables, et offrent une meilleure gestion de la montée en charge. « Il y a encore certains usages où une grande quantité de calcul doit être réalisée dans un temps très court », précise l'ingénieur. « Les coeurs très puissants peuvent fournir plus de capacité de traitement ... et un meilleur temps de réponse. »
Par exemple, des requêtes adressées à un moteur de recherche seront plus rapidement traitées par un serveur utilisant des processeurs classiques que par des puces pour netbooks. Toutefois, jusqu'à ce que toutes les données soient collectées et analysées, la stratégie serveur de la société continuera à tourner autour de sa gamme de processeurs Opteron. Ces dernières proposent jusqu'à 12 coeurs par socket avec la série 6000 (Magny Cours) et AMD a déjà annoncé un successeur capable d'accueillir jusqu'à 16 coeurs avec la famille Interlagos reposant sur la plate-forme Bulldozer présentée lors de la dernière convention Hot Chip à l'Université de Stanford en Californie.
Dell, SeaMicro et ARM sur les rangs
AMD exploite aujourd'hui un marché ou la récolte est encore maigre.
Dell propose bien des serveurs de faible puissance reposant sur des processeurs Via Nano, et la start-up SeaMicro a dévoilé un serveur embarquant jusqu'à 512 puces Intel Atom greffées sur des cartes mères de la taille d'une carte de crédit. Pour défendre sa solution, SeaMicro explique que les processeurs Intel Atom sont bien adaptés à des charges de travail limitées, et sont capables de fournir des réponses rapides tout en utilisant beaucoup moins d'énergie que des coeurs plus puissants.
Et après quelques années de silence sur le sujet, ARM cherche également à pousser ses processeurs de faible puissance dans les serveurs. D'autres entreprises, comme Marvell et Smooth-Stone, ont aussi annoncé leur intention de proposer des plates-formes serveurs reposant sur des puces exploitant l'architecture ARM. Ces circuits équipent aujourd'hui presque tous les smartphones et les équipements électroniques évolués.
Donald Newell reste toutefois sceptique quant à la réussite d'ARM sur le marché des serveurs, qui reste aujourd'hui dominé par l'architecture X86. Incompatibles avec les instructions X86, les puces ARM ne peuvent pas s'intégrer d'un coup de baguette magique dans les centres de calcul traditionnels. «Il sera difficile pour ARM de s'imposer sur le marché des serveurs, comme pour le X86 d'arriver sur celui des lave-vaisselles », assène Don Newell.
Associer plus étroitement CPU et GPU
Dernier focus du CTO d'AMD, le développement d'une plate-forme serveur associant étroitement CPU et GPU. À l'heure actuelle, ces circuits sont conçus pour des besoins informatiques différents, mais à l'avenir ces éléments architecturaux pourraient parfaitement travailler beaucoup plus étroitement pour le plus grand bénéfice des entreprises, conclut Don Newell. Pour en savoir plus, il faudra atteindre les premiers tests de la plate-forme Bulldozer qui exploite une voie originale sur le marché des serveurs en réduisant le nombre d'unités de calcul en virgule flottante au sein des processeurs au profit justement des GPU.
Illustration : Donald Newell, CTO d'AMD, crédit D.R.
(...)(25/08/2010 15:09:19)Vente de serveurs : plus forte hausse depuis 2003, selon IDC
Au cours du deuxième trimestre 2010, les ventes de serveurs au niveau mondial ont atteint leur plus forte hausse depuis 2003, selon IDC. Hewlett-Packard a même dépassé son rival IBM pour s'octroyer la première place parmi les vendeurs de serveurs. Pendant cette période, les recettes ont quant à elles augmenté de 11 %, à 10,9 milliards de dollars US. C'est le deuxième trimestre consécutif où les recettes du marché des serveurs augmentent, selon un rythme le plus rapide observé depuis 2003. «La croissance à laquelle nous assistons tient essentiellement à la hausse des volumes en entrée de gamme," a déclaré Jean Bozman, vice-présidente chargée de la recherche dans le domaine des serveurs d'entreprise, c'est à dire, selon la définition d'IDC, des systèmes coûtant moins de 25.000 dollars. « Malgré la forte croissance constatée au second trimestre, les recettes mondiales en terme de ventes restent encore en dessous des niveaux historiques enregistrés en 2008, en raison de la baisse à deux chiffres dont a souffert le secteur en 2009, » a pondéré Jean Bozman, rappelant les effets du ralentissement économique. «Mais les choses bougent dans la bonne direction, » a-t-elle ajouté.
+32% pour les serveurs d'entrée de gamme
La demande en systèmes de type entrée et milieu de gamme - qu'IDC classe dans la catégorie des serveurs coûtant entre 25 000 et 250 000 dollars - a été forte, avec une croissance en revenu de respectivement 32 et 16 % par rapport à la même période de l'année dernière, selon IDC. Au contraire, au second trimestre, la demande en systèmes haut de gamme, ceux dont le prix dépasse les 250 000 dollars, a fléchi, affichant une baisse de 27,2 % des recettes, soit la septième baisse trimestrielle consécutive constatée. « L'augmentation de la demande en serveurs milieu de gamme a été particulièrement remarquable, » a déclaré Jean Bozman. « Avec le haut de gamme, le milieu de gamme avait été l'un des secteurs les plus durement touchés par le ralentissement économique du fait du prix plus élevé de ces matériels, » a-t-elle commenté.
IBM souffre du renouvellement de ses gamme Power et Z
Les grands gagnants de cette hausse sont HP, en haut de l'échelle, et Dell, classé troisième, dont les recettes relatives à la vente de serveurs ont augmenté respectivement de 26 et 37 %. IBM, toujours second (Big Blue était déjà derrière HP au premier trimestre 2010), après avoir cédé sa première place à HP il y a un an, a, au contraire, perdu 3,2% de ses revenus au cours de ce deuxième trimestre. Pour HP, les recettes du trimestre provenant de la vente de serveurs ont atteint 3,5 milliards de dollars, contre 3,2 milliards pour IBM. La baisse de recettes d'IBM résulte en partie du ralentissement des ventes de ses serveurs Power et System Z, les clients ayant attendu la mise sur le marché des nouvelles versions de ces machines. «IBM a lancé un nouveau produit annoncé une semaine auparavant. Il y a donc eu un certain retard dans la demande de la part de leurs clients», a expliqué Jean Bozman, notant que cette sortie pourrait se traduire par une hausse des ventes d'IBM au cours du deuxième semestre de l'année. Mais la demande pour les serveurs IBM de type System X - à base de processeurs x86 - est demeurée forte au cours du second trimestre.
Crédit photo : HP Proliant 560
Avec l'architecture Bulldozer, AMD mise sur les unités de calcul nombres entiers
Attendus en 2011, les processeurs basés sur l'architecture Bulldozer comprendront plusieurs coeurs et seront jusqu'à 50% plus rapides que les puces actuelles (Magny-Cours) reposant sur le design K10, a déclaré Dina McKinney, vice-présidente en charge de l'ingénierie chez AMD. Si la nouvelle architecture améliore significativement les performances, elle apporte également une plus grande flexibilité dans la façon dont les tâches sont exécutées dans les coeurs de processeurs. Les CPU de la famille Bulldozer seront destinés aux serveurs comme aux ordinateurs de bureau, précise encore la dirigeante. Les premières puces, connues sous le nom d'Interlagos, devraient toutefois être réservées aux serveurs et comprendront de 12 à 16 coeurs par socket.
Moins d'unités de calcul en flottant
Les concepteurs de puces comme Intel et AMD ont toujours amélioré les performances des processeurs en ajoutant des coeurs, en augmentant la fréquence d'horloge, ou en améliorant les capacités de traitement parallèle (multithreading). Un autre élément a toutefois été particulièrement soigné dans l'architecture Bulldozer : il s'agit de l'optimisation des liens et des échanges entre les différents coeurs et les autres composants internes du processeur. Prenant en compte la montée en puissance des GPU, notamment sur le marché des HPC, AMD a choisi de privilégier au sein de ses nouveaux processeurs, les unités dédiées aux calculs sur les nombres entiers au détriment des unités dédiées aux calculs flottants. Ainsi à la différence des architectures plus classiques, un processeur de la famille Bulldozer est composé de 1 à 8 blocs, chaque contenant deux coeurs dédiés aux entiers contre un seul coeur pour les flottants. Selon le Californien, il s'agit du meilleur compromis entre le nombre de transistors et la capacité de calcul. Les coeurs sont principalement dédiés aux tâches les plus courantes, tandis que les composants partagés tels que l'unité de virgule flottante ne sont utilisés que lorsque c'est vraiment nécessaire. Plus petites, car elles nécessitent moins de composants, les puces sont au final moins gourmandes en énergie. Avec une même quantité de courant électrique, AMD estime que le rendement d'un processeur Bulldozer sera jusqu'à 50% supérieur à celui d'un Opteron Magny-Cours avec 12 coeurs.
Des processeurs plus spécialisés
Dans le passé, les fondeurs axaient le développement de leurs puces autour des seules performances, mais les temps changent, explique Jim McGregor, analyste chez In-Stat. Les processeurs sont désormais conçus pour répondre aux exigences nouvelles de l'informatique pour des applications comme les bases de données ou les services Web, souligne l'analyste. Les demandes ne sont plus les mêmes pour les serveurs : certains recherchent plus de performances en virgule flottante et d'autres une meilleure bande passante pour la mémoire.
Ces puces devraient aider AMD à élargir son offre pour serveurs et à conquérir de nouveaux marchés. La condition sine qua non pour résister à la féroce concurrence d'Intel, qui domine le segment des processeurs X86 pour serveurs. «Comment vont-ils faire contre Intel ? C'est difficile à dire," poursuit Jim McGregor. Au deuxième trimestre 2010, Intel possède 93,5 % du marché des processeurs pour serveur, tandis que la part d'AMD est descendue à 6,5 %, selon une étude
publiée la semaine dernière par IDC.
Mais les constructeurs de serveurs ont appris à bien travailler avec AMD, et les nouvelles puces du Californien de Sunnyvale devraient facilement trouver leur place, estime l'analyste. Les principaux fournisseurs de serveurs, - Hewlett-Packard, Dell et IBM, qui proposent tous les trois des systèmes sur base AMD Opteron, n'ont pas encore dévoilé leur intention quant à l'adoption de la nouvelle architecture Bulldozer d'AMD.
Illustration : Architecture de la plate-forme Bulldozer d'AMD
Un téléphone Android aussi puissant qu'un supercalculateur
Après une série de simulations effectuées sur le supercalculateur Ranger, les scientifiques ont généré un "modèle réduit" de l'application qu'ils ont transféré sur un smartphone. Ils sont ensuite parvenus à résoudre certains problèmes liés à la taille de l'écran pour visualiser les résultats à la volée.
Le HPC en mobilité
Le projet a révélé la capacité et la méthode pour porter des simulations de calculs complexes fiables et en temps réel sur des appareils de poche. Ce n'est pas la première fois que des petits terminaux sont utilisés pour effectuer de telles opérations. Mais les travaux du MIT montrent qu'il est possible d'implémenter un système de gestion d'erreurs par un algorithme plus adapté au terminal. "Il n'est pas nécessaire d'avoir un ordinateur très puissant à disposition," a déclaré David Knezevic, post-doctorant en génie mécanique au MIT. "Une fois que vous avez créé le modèle réduit, vous pouvez faire tous les calculs sur un téléphone. Nous avons évalué la limite du modèle réduit en terme de précision, c'est pourquoi nous pouvons affirmer avec toute la rigueur qui s'impose que nous sommes capables de faire du calcul intensif sur un smartphone."
Crédit Photo: TAAC
(...)(16/08/2010 16:23:14)Le calcul haute performance accessible aux PME
« Il y a un vrai travail de pédagogie et d'évangélisation à faire sur les bénéfices du calcul haute performance auprès des PME » souligne Stéphane Requena, responsable technique au GENCI. Répondant à une recommandation du plan « France Numérique 2012 », présenté à l'époque par Eric Besson, le programme « HPC-PME » a été lancé conjointement par le GENCI (Grand Equipement National de Calcul Intensif), l'INRIA, OSEO et 4 pôles de compétitivité. Le premier partenaire sera en charge de l'accès aux ressources de calcul intensif. Il dispose en effet de 3 centres nationaux de calculs dotés d'une capacité de traitement estimé à 600 Teraflops. De son côté, le laboratoire de recherche apportera son expertise technique et sa méthodologie sur le HPC. OSEO sera, quant à lui, en charge des outils de soutien et de financement de l'innovation.
Le relais d'information et de recherche d'entreprises candidates se fera par les pôles de compétitivité : Aerospace Valley (aéronautique, espace, systèmes embarqués), Axelera (chimie et environnement), Minalogic (solutions miniaturisées intelligentes pour l'industrie) et System@tic (systèmes complexes). Ces pôles ont été choisis pour leur implantation régionale couvrant ainsi tout le territoire. Pour autant, Stéphane Requena indique que « cette liste sera amenée à évoluer avec l'intégration de pôles concernant d'autres secteurs d'activités intéressés par la simulation numérique » et d'ajouter « les mésocentres ou centres régionaux seront également mis à contribution pour identifier les candidats ».
Une prise en charge complète
Ces derniers pourront être à la fois de jeunes sociétés qui disposent d'une idée de produit ou de process où l'accompagnement sera complet (puissance de calcul, expertise et financement) et de bout en bout, le « Saint Graal » selon Stéphane Requena. Ce programme s'adresse aussi aux sociétés qui ont une première expérience de la simulation numérique, mais souhaitent passer à un niveau supérieur (d'un simple PC à plusieurs milliers de coeurs). Il s'agit dans les deux cas « de mettre le pied à l'étrier avec un interlocuteur unique sur l'ensemble de l'accompagnement du projet » selon le responsable opérationnel du GENCI.
Cette initiative sera lancée au début du mois de septembre où un site sera spécialement mis en place http://www.initiative-hpc-pme.org. Les PME françaises qui s'intéressent au calcul haute performance pourront alors se porter candidates. En réalisant des gains de temps dans la modélisation de leurs solutions, ces entreprises vont réduire les coûts à chaque étape du cycle de vie d'un produit ou d'un process. Les domaines d'activités sont multiples de la résistance des matériaux à la génomique en passant par l'optimisation du traitement des données financières et multimédias. Un premier bilan sera réalisé au printemps 2011.
Illustration: Jade du Cines
(...)(30/07/2010 12:03:50)Semestriels Bull : la société se montre prudente pour l'avenir
Impacté par la crise, Bull a publié des résultats financiers pour le premier semestre en demi-teinte. Certes le chiffre d'affaires est en hausse de près de 6% à 591,3 millions d'euros. La marge brute progresse de 7,5% à 131,2 millions d'euros. Au sein des différentes activités, on note une bonne tenue de la branche hardware et solutions systèmes, +5,5% avec 190,6 millions d'euros. Le groupe indique que cette activité est portée par les efforts réalisés dans l'extreme computing et le stockage sécurisé. Par contre l'activité revente de produits tiers chute de 42,3% en raison d'un désengagement volontaire de Bull. La partie maintenance subit aussi une décroissance de 4%, également anticipée.
Des pertes et des prévisions prudentes
Le groupe affiche une perte nette de 18,4 millions d'euros contre un bénéfice net de 2 millions d'euros à la même période un an auparavant. Bull explique en partie cette chute par une charge exceptionnelle de 9,2 millions d'euros représentant la dépréciation de l'écart d'acquisition résiduel de Siconet, une filiale espagnole. Par ailleurs, l'intégration d'Amesys (société de conseil et d'ingénierie dont l'acquisition a été finalisée mi-janvier) impacte les résultats par l'ajustement d'une clause de remboursement de créance de 4,2 millions d'euros.
Pour les perspectives, la société française est très prudente en estimant le résultat d'exploitation pour le second semestre 2010 à un minimum de 30 millions d'euros. La nouvelle équipe dirigeante présidée par Philippe Vannier, après le départ de Didier Lamouche au mois de mai dernier, va présenter à l'automne son plan pluriannuel pour le groupe.
< Les 10 documents précédents | Les 10 documents suivants > |