Flux RSS

Business

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

9034 documents trouvés, affichage des résultats 4101 à 4110.

< Les 10 documents précédentsLes 10 documents suivants >


(17/06/2009 17:35:14)

EnterpriseDB fait évoluer son SGBD compatible Oracle et change de direction

EnterpriseDB, connu pour proposer un SGBD compatible Oracle à moindre prix, annonce les versions 8.3 de Postgres Plus et de Postgres Plus Advanced Server. Cette évolution apporte en particulier la possibilité d'installer en mémoire tout ou partie d'une base qui sert essentiellement à la consultation. Infinite cache, qui ne nécessite aucune modification de code, apporte, bien sûr, un net gain de performance. Postgres s'améliore aussi sur son principal élément différenciateur : la compatibilité avec le SGBD d'Oracle. Il reçoit également des outils supplémentaires pour faciliter les migrations. Quelques jours avant l'annonce de cette version 8.3, Alfresco et EnterpriseDB signaient un partenariat aux termes duquel Alfresco Enterprise, l'outil de gestion de contenu du premier, et le SGBD du second bénéficieront désormais d'un support technique commun. Enfin, la version 8.3 de Postgres arrive dans un EnterpriseDB qui vient de changer de direction. Après avoir passé les six dernières années chez Red Hat à différents postes de haut niveau dans la vente et le marketing, Ed Boyajian, a été nommé président et directeur général. Il succède à Andy Astor qui se concentre sur le "business development". Cette nomination intervient moins de trois mois après qu'un groupe d'investisseurs, au rang desquels figure IBM, a injecté 10 M$ dans la société. Sur ces entrefaites, celui-ci avait annoncé que la version 9.7 de son SGBD DB2 intégrait désormais Postgres... (...)

(17/06/2009 16:47:12)

Le marché des serveurs continue de s'effondrer mais l'embellie approche

Le marché des serveurs restera moribond jusqu'en 2011, estime IDC, mais le pire semble avoir été atteint. Si l'institut d'études a revu à la baisse ses prévisions pour le 2e trimestre 2009 et table sur un recul de 29,6% de la valeur de ce marché, il estime que le rythme de décroissance devrait ralentir dès le troisième trimestre. « Bien que nous prévoyions un recul de 22,1% pour 2009, le plus gros de la contraction du marché est derrière nous. En effet, d'ici à la fin du 3e trimestre (...) le marché montrera des signes importants de stabilisation. IDC croit que de nombreux utilisateurs commenceront à prendre des décisions stratégiques en ce qui concerne leurs plateformes informatiques avant la fin de 2009 pour anticiper l'activité de 2010 », indique le cabinet. La valeur du marché des serveurs, après une baisse de 22,1% en 2009, devrait céder encore 0,4% en 2010. Au total, il aura, selon IDC, enregistré huit trimestres consécutif dans le rouge. Il faudra attendre 2011 pour que sa valeur évolue à nouveau positivement : elle progressera de 2,9% par rapport à l'année précédente, avant de gagner 3,3% en 2012 et 3,1% en 2013. Tout au long de ces trimestres de disette, les serveurs haut de gamme seront les plus affectés : pour la seule année 2009, leurs ventes reculeront de 35% en valeur, contre une baisse inférieure à 10% pour le matériel de moyenne gamme. (...)

(17/06/2009 16:19:06)

Le prix de la 4eme licence de téléphonie mobile monte à 240 millions d'euros

La procédure d'attribution de la quatrième licence de téléphonie mobile semble s'engluer. Le gouvernement a relevé le prix du lot des 5 MHz tout en retardant de facto l'échéance. Parallèlement, d'aucuns prêtent à Bouygues Telecom l'intention de retarder le processus par la voie judiciaire. Surtout ne pas répondre aux questions sur la 4e licence de téléphonie mobile ! Tel semble la consigne passée et appliquée par les responsables gouvernementaux en charge des télécoms en ce moment. Au lendemain de l'annonce en catimini -via un entretien rapide de Luc Chatel, secrétaire d'Etat à l'Industrie, avec l'AFP- il parait impossible de comprendre les raisons qui ont motivé l'avis consultatif de la Commission des participations et des transferts de relever le prix du lot des 5 MHz réservé à un nouvel entrant, un avis que le gouvernement compte suivre. Au lieu des 206 millions d'euros annoncés par le gouvernement devant la représentation nationale lors du débat organisé au Parlement en début d'année sur la quatrième licence, le prix est désormais fixé à 240 millions d'euros. Pour autant, si le tarif est désormais connu, le gouvernement paraît toujours aussi peu pressé de donner le coup d'envoi du processus d'attribution. Dans son entretien avec l'AFP, Luc Chatel a en effet précisé qu'il allait saisir pour consultation les instances concernées (l'Arcep), avant de publier, d'ici la fin juillet, le décret fixant les modalités d'attribution. Le sujet des consultations est d'autant plus mystérieux que le gouvernement a déjà tous les éléments à sa disposition, l'Arcep lui ayant transmis depuis longtemps son avis sur le dossier. Des opérateurs tentés de faire traîner le dossier De plus, lors de la nomination de Jean-Claude Mallet à la tête de l'Arcep début janvier (remplacé depuis par Jean-Ludovic Silicani), le gouvernement avait promis de lancer la procédure avant la fin du mois de février, puis avait finalement évoqué la fin mars. L'attribution de la licence prend donc encore une fois quelques semaines de retard supplémentaires, sans que l'on puisse avoir la certitude que cette nouvelle échéance sera respectée. Les opérateurs mobiles en place ont en effet tout intérêt à retarder le plus longtemps possible l'arrivée d'un nouvel acteur. Comme le relevait récemment le magazine Challenges sur son site, la clause permettant à un quatrième acteur de récupérer 5 MHz dans la bande 900 MHz tombe dans un an (en juin 2010). Autrement dit, si le dossier traîne suffisamment les opérateurs en place n'auraient pas à rétrocéder une partie des fréquences qu'ils utilisent, tout en compliquant la tâche du nouvel entrant qui avec 5 MHz seulement verrait sa capacité de développer son réseau sur l'ensemble du territoire significativement réduite. D'où l'intention prêtée notamment à Bouygues Telecom de poursuivre le combat contre la quatrième licence en attaquant le décret devant la justice. Une hypothèse que n'exclut pas non plus France Télécom pour faire constater que « le principe d'équité n'a pas été respecté ». Iliad, dernier candidat en lice ? [[page]]Si tel devait être le cas, il serait difficile pour le gouvernement de lancer la procédure d'attribution, compte tenu de l'incertitude juridique qu'une telle plainte ferait peser sur le dossier. Un environnement qui ne va pas faciliter la tâche des candidats potentiels. Alors que de nombreux noms circulaient en début d'année, la liste semble d'ailleurs s'être réduite. KPN, qui avait pris contact avec Alcatel-Lucent, a affirmé depuis n'être pas intéressé par la licence, alors que Virgin Mobile France, qui regarde le dossier, indique aussi ne pas avoir besoin de la licence pour poursuivre son développement. Geoffroy Roux de Bézieux, PDG du MVNO, s'inquiète de la capacité du nouvel entrant à déployer les points hauts, compte tenu de la polémique sur la nocivité des antennes-relais. Sauf coup de théâtre, Iliad pourrait donc bien être le seul candidat à tenter l'aventure. La fuite du gouvernement face à ces questions La quatrième licence de téléphonie mobile, et plus généralement l'ensemble des sujets télécoms, sont manifestement des épines dans le pied du gouvernement. Pour s'en convaincre, il suffit de rappeler que sur une question aussi importante, il n'a pas cru bon de rédiger un communiqué ou d'organiser une conférence de presse pour expliquer et motiver son choix sur le prix de la licence, et s'est contenté d'un rapide entretien de Luc Chatel avec l'AFP. Depuis deux ans que ce dossier est sur la table, le gouvernement s'est d'ailleurs fait remarquer par sa capacité à fuir les questions. D'où les rumeurs récurrentes portant sur le chantage à l'emploi que pourraient exercer certains des opérateurs en place, peu pressés de faire de la place à un quatrième acteur, et qui amènerait l'Elysée à repousser, sans cesse, les décisions. (...)

(16/06/2009 19:26:21)

Bull propose un système HPC conçu pour la simulation

Le système HPC bullx annoncé aujourd'hui par Bull s'adresse à la clientèle bien particulière des entreprises friandes de simulation numérique. Ce type d'applications particulièrement complexe simule la réalité pour mieux la comprendre et est insatiable en ce qui concerne la puissance machine. Les utilisateurs potentiels sont aussi bien les industries automobile, l'aéronautique, l'exploration pétrolière, les finances, le nucléaire, les laboratoires scientifiques, la médecine, la climatologie, la défense, etc. La clientèle ne manque pas et son besoin en puissance est toujours croissant. « Un supercalculateur qui n'est pas utilisé aujourd'hui, ça n'existe pas, » insiste Fabio Gallo, responsable HPC de Bull. Après avoir examiné de près les besoins de ses clients, le constructeur français a opté pour des clusters Xeon 5500 qu'il a poussés dans leurs derniers retranchements. « Aucun compromis », selon Bull. Tous les moyens ont aussi été utilisés pour donner au système une performance énergétique optimale.

Bull a veillé aux exigences de ses clients HPC

Pour concevoir bullx en allant au-delà de la seule puissance, Bull a identifié une série de besoins auprès de ses clients. Pour commencer, ceux-ci veulent que le système soit capable d'une performance soutenue tout au long de l'exécution d'une application et pas uniquement d'une performance de crête, obtenue uniquement dans certaines conditions. Les entreprises sont aussi attachées à l'efficacité énergétique. Inutile de préciser que l'enveloppe énergétique d'un supercalculateur n'échappe pas à la forte croissance qui frappe toutes les infrastructures serveurs. De fait, pas question de gâcher le moindre watt.
Autre exigence des clients Bull dans le HPC, la protection de leur investissement. De telles infrastructures de supercalcul ne se changent pas tous les deux ans. Les technologies mises en place doivent donc être les plus avancées du moment. Les industriels et les laboratoires ont aussi interpellé le constructeur sur l'utilisation de technologies spécialisées pour l'accélération du calcul technico-scientifique. La performance des processeurs graphiques est ainsi désormais considérée comme intéressante d'autant qu'elle n'augmente que très peu la consommation électrique de l'ensemble du système. « Mais la facilité d'utilisation dans ces systèmes HPC n'était pas leur point fort, et nous devions travailler sur le sujet », précise Fabio Gallo. Enfin, tous les clients concernés ont exigé de Bull pour leur supercalculateur, la facilité d'installation, d'utilisation et de gestion, ainsi que la fiabilité.

Des lames purement Xeon 5500 et des lames avec GPU

« Nous avons donc tout simplement développé une nouvelle architecture, raconte Fabio Gallo. Elle est exclusivement conçue pour la simulation numérique, et de ce fait, elle est sans compromis. » Bull n'a pas souhaité faire de concession au supercalcul et à l'optimisation de la puissance pour garder une configuration qui pourrait servir à d'autres utilisations que la simulation. « Si on se frotte à l'optimisation de la performance, il faut une architecture idoine du système de mémoire, il faut utiliser le chipset le plus performant. A tout moment de la conception du système, nous avons gardé en tête la performance applicative et l'élimination de tous les goulets d'étranglement qu'elle implique. »

Les lames de bullx s'appuient sur l'architecture de processeur Xeon 5500 d'Intel (ex Nehalem). Mais Bull a donc choisi les puces les plus rapides de la gamme produites par Intel. « Nous avons aussi opté pour l'architecture mémoire la plus performante possible pour les noeuds, détaille Fabio Gallo. Nous installons des Xeon 5500 avec le nombre maximum de canaux de mémoire, c'est à dire 3 par processeur, et avec 2 barrettes par canal. » Mais l'innovation principale du système réside dans le mélange, dans les mêmes armoires, de lames traditionnelles contenant uniquement des Xeon 5500 avec des lames spécialisées intégrant à la fois le processeur d'Intel et un GPU (Graphical processor unit) Nvidia. « L'intégration des deux parties peut être le point qualifiant du système », insiste Fabio Gallo. Il s'agit en effet pour l'entreprise utilisatrice du système de trouver le bon point d'équilibre en fonction de ses applications. Les processeurs graphiques sont connectés via une interface PCI Express et l'architecture des lames est conçue pour que la bande passante entre les deux puces, standard et graphique, soit maximale. « Normalement, il n'y a qu'un chipset pour le serveur, et les deux processeurs bisockets utilisent le même, détaille Fabio Gallo. Pour nos lames spécialisées, nous utilisons deux chipsets pour que chaque processeur ait un accès dédié vers l'accélérateur. »

Le commutateur Infiniband directement dans le fond de panier

Comme toute médaille a son revers, ce type d'architecture totalement nouvelle implique pour être utilisé au mieux la mise au point de nouvelles applications spécifiques ou le portage des anciennes. « Sur les lames accélérées, nous travaillons depuis un an au portage et à l'optimisation des applications avec nos clients, confirme Fabio Gallo. Pour certaines applications bien structurées, nous pouvons obtenir un facteur d'accélération de 10. Il faut identifier les parties de code qui se prêtent à ce type d'accélération, ensuite il faut procéder à leur portage et à leur compilation avec des méthodes légèrement différentes sur l'accélérateur. »
[[page]]
Bull propose un système HPC conçu pour la simulation
Page précédente : 1/2

Le choix des processeurs n'est pas la seule amélioration du système. Ainsi, le commutateur Infiniband est-il intégré directement dans le fond de panier et non pas installé en tant qu'élément isolé. Un moyen évident d'économiser de l'espace et de limiter le câblage, mais pas seulement. Les performances devraient là encore être au rendez-vous, et également améliorées. Pour commencer, la distance entre le commutateur et les serveurs est réduite. « Les réseaux très haut débit sont aussi très sensibles au rayon de courbure des câbles, rappelle Fabio Gallo. Si une intervention doit avoir lieu sur le système, leur manipulation peut avoir un impact sur la fiabilité. » Le réseau Infiniband est utilisé en mode QDR (Quad Data Rate), le plus performant actuellement disponible.

La suite d'administration s'appuie sur des briques libres

Enfin, avec un système aussi complexe, une suite d'administration s'imposait. Bull en a mis une au point qui s'appuie en majorité sur des composants libres. Cet outil réduit la complexité du cluster en proposant un point de contrôle unique pour le matériel. La base d'inventaire Cluster DB recense tous les composants du cluster et identifie précisément, en cas de problème, quel câble ou quelle barrette mémoire sont concernés.

Au final, chaque châssis (7U) contenant 18 lames bullx peut atteindre près de 1,7 Tflops. Dans chaque châssis, on compte une rangée de 8 lames et une rangée de 10 dont les commutateurs, les écrans, les ventilateurs. « Le nombre de 18 n'a pas été choisi au hasard, précise d'ailleurs Fabrice Gallo. Le commutateur Infiniband QDR dispose de 36 ports, soit 18 entrées et 18 sorties. » Là encore, il s'git d'optimiser. Chaque armoire (42U) peut accueillir jusqu'à 6 châssis et représentera une puissance totale d'environ 10 Tflops.

Une porte de refroidissement à l'eau

Economie et écologie obligent, de telles configurations, aussi puissantes, ne se conçoivent plus sans optimiser la consommation électrique et la gestion thermique. Pour limiter à la fois la dissipation de chaleur et éviter les systèmes de climatisation chers et consommateurs d'énergie, Bull, comme IBM l'a déjà fait, remet au goût du jour les systèmes de refroidissement à eau. Il installe des portes à eau à l'arrière des armoires (qui consomment jusqu'à 40 kW). La chaleur est absorbée par ces portes et est transmise par un fluide. Ces cloisons intègrent par ailleurs des capteurs et des systèmes de contrôle qui permettent aux ventilateurs de marcher ou pas. Ce sont eux qui renvoient l'air dans la salle à la même température que lorsqu'il est entré. Les ventilateurs servent à garantir que le flux d'air ne soit pas interrompu. Selon le constructeur français, ces éléments installés directement sur les systèmes sont, par essence, bien plus ciblés que le refroidissement complet de la salle qui héberge l'infrastructure. Un ciblage qui se traduirait par une efficacité accrue de près de 75% et une économie d'énergie augmentée d'autant. Par ailleurs, le système devrait pouvoir supporter une température de ... 35°C. L'absence de panne reste à prouver, dans ce cas.

Survivre à des 'burn out'

Des dispositifs intégrés permettent aussi aux lames de survivre à des 'burn out' ce qui évite de faire appel à des onduleurs, appareils qui introduisent selon Bull entre 10 et 20% de perte de la puissance électrique. Les 'burn out' sont des interruptions d'alimentation de quelques fractions de secondes qui sont à l'origine des pannes non prévues les plus fréquentes des systèmes. Le dispositif qui pallie ce problème est un condensateur avec un système de contrôle qui intervient en cas de microcoupure. Les noeuds de calcul qui représentent 90% de la puissance électrique consommée par la configuration continuent de fonctionner, même sans onduleur. Seuls les noeuds destinés à l'administration restent équipés d'onduleurs, mais leur consommation représente un faible pourcentage.

Pour ce qui est du prix, les estimations sont toujours particulièrement difficiles avec ce style de configurations modulaires et haut de gamme. « Sur des systèmes départementaux, modestes, on peut démarrer en dessous de 100 000 euros, et pour les plus grands systèmes, on atteindra plusieurs dizaines de millions d'euros », précise néanmoins Fabio Gallo... Le premier client bullx est l'Université de Cologne en Allemagne. (...)

(16/06/2009 17:06:34)

Microsoft Visual Studio 2010 Lab Management entre en phase bêta

La réponse de Microsoft au Lab Manager de VMware a atteint la phase bêta. Comme lui, et comme les produits de VMLogix, de Surgient et de Skytap, Visual Studio 2010 Lab Management vise à permettre d'automatiser la gestion des machines virtuelles en environnement de développement. Ce type d'outils permet un gain considérable de temps et d'énergie. Visual Studio 2010 Lab Management est construit avec des briques en provenance d'Hyper-V (hyperviseur), de Visual Studio 2010 (environnement de développement) et de l'outil d'administration System Center Virtual Machine Manager (SCVMM) 2008. Il bénéficie d'un atout : son intégration dans Team Foundation Server (TFS). (...)

(16/06/2009 16:16:28)

L'éditeur polonais Comarch veut se faire un nom en France

Presque inconnu en France pour l'instant même s'il y compte déjà plusieurs clients et quarante collaborateurs, l'éditeur polonais Comarch entend bien développer ses activités de façon significative dans l'Hexagone. Ses logiciels de facturation et de gestion de réseaux pour les opérateurs de télécommunications lui ont permis d'entrer chez Bouygues Telecom et Auchan Telecom. Mais il compte aussi bâtir d'ici 2010 un réseau de distribution indirecte afin de diffuser son ERP pour PME de négoce, Comarch Altum. Ce produit, basé sur la technologie Microsoft .Net, se pose en concurrent d'ERP tels que ceux de Divalto ou Cegid. Il est vendu sous forme de licences, à partir 500 euros par utilisateur (900 euros avec ses fonctions de workflow et d'analyse décisionnelle).

55% du chiffre d'affaires réalisé à l'international


Au niveau mondial, Comarch a déjà pris pied dans une quinzaine de pays. Créé en 1993 par Janusz Filipiak, il réunit 3 500 salariés et 57 000 clients, parmi lesquels T-Mobile, Vodafone et O2. Outre ses solutions pour les opérateurs télécoms (30% de son chiffre d'affaires total en 2008), l'éditeur déploie ses applications de gestion sur trois autres marchés : la distribution et les services (avec notamment la gestion des cartes de fidélité, chez BP France, par exemple), la banque (avec une forte présence en Ukraine) et le secteur public. L'an dernier, Comarch a réalisé 55% de son chiffre d'affaires de 200 M€, hors de son marché national. Janusz Filipiak, son PDG, souligne que 13% de ce CA a été investi en R&D en 2008 (le groupe dispose de quatre centres de R&D en Europe).

Bien implanté à Lille


Sur l'Hexagone, les équipes de Comarch se répartissent entre Lille, où l'équipe conseil et technique est installée, et l'antenne parisienne à vocation commerciale. A Grenoble se trouvent par ailleurs dix personnes investies dans le développement de l'offre télécom. L'éditeur polonais focalisera son activité française sur son ERP pour PME et sur le marché des télécoms. Il insiste sur l'aspect intégré de son offre destinée aux opérateurs avec laquelle il entre en concurrence avec des acteurs comme Oracle ou Amdocs. Dans un premier temps, Comarch concentrera son action commerciale sur la Région Nord Pas-de-Calais et sur Paris. (...)

(16/06/2009 15:31:19)

Dell dope ses ventes grâce à Twitter

Si le service de micro-blogging Twitter peine à trouver un modèle économique viable, ce n'est pas le cas de certains de ses utilisateurs. Ainsi, Dell a réalisé plus de 3 millions de dollars de chiffre d'affaires en vendant ses produits reconditionnés sur Twitter@DellOutlet. Ce fil de discussion - dont les ventes sont réservées au canal américain - a été lancé en juin 2007 et rassemble désormais près de 600 000 suiveurs (cela en fait l'un des cinquante fils de discussion les plus populaires du réseau social). Dell utilise Twitter pour poster des annonces sur son matériel reconditionné, émettre des coupons de réductions, ou lancer des invitations à des ventes privées. Sur les 3 millions de chiffres d'affaires réalisés, 2 millions l'ont été directement via Twitter et 1 million provenait d'autres ventes sur le site général de Dell, où les visiteurs étaient entrés via un lien sur Twitter. Ce modèle économique est si profitable que Dell le décline désormais en versions pour particuliers (@DellHomeOffers) et pour les PME (@DellSmBizOffers), et en versions localisées pour l'Irlande, le Royaume-Uni, l'Australie, le Brésil, la Chine, le Japon ou la Corée. Si ces ventes restent marginales dans le chiffre d'affaires global de Dell, elles intéressent très fortement Twitter qui cherche encore et toujours un moyen de monétiser son audience. Stefanie Nelson, responsable de l'activité Twitter et porte-parole de Dell, a ainsi indiqué que le réseau social s'était rapproché d'elle pour avoir son retour d'expérience. En vue de la création d'outils spécifiques pour les forces de vente des entreprises ? (...)

(16/06/2009 12:39:43)

Data Domain repousse formellement l'offre de rachat d'EMC

Le feuilleton du rachat de Data Domain pourrait bientôt prendre fin. Courtisé par EMC et NetApp, le spécialiste de la déduplication de données vient en effet de confirmer sa préférence pour NetApp, dont l'offre de rachat pour 1,9 Md$ avait été acceptée le 3 juin. Hier, le conseil d'administration de Data Domain a une nouvelle fois hypothéqué les chances d'EMC en rejetant son offre et en recommandant à ses actionnaires d'en faire autant. NetApp avait été le premier à manifester son intérêt pour Data Domain, en proposant 25 $ par action, soit 1,5 Md$. Peu de temps après, EMC avait surenchéri en offrant 30 $ par titre en numéraire, valorisant ainsi la cible à 1,9 Md$. Dans la foulée, NetApp s'alignait sur cette proposition, mais en n'offrant que la moitié en cash, l'autre moitié étant constituée de titres. Une enchère finalement acceptée par les dirigeants de Data Domain. Ces derniers, après avoir signé un accord avec NetApp, sont désormais contraints de poursuivre sur leur lancée. S'ils finissaient par rejeter cette offre, ils devraient en effet verser 57 M$ au prétendant éconduit à titre de dédommagement. De plus, selon les termes de l'accord, Data Domain avait l'obligation de rejeter officiellement l'offre d'EMC, comme cela a été fait hier ; dans le cas contraire, l'engagement de NetApp devenait caduc. Reste que les actionnaires du spécialiste de la déduplication de données pourraient préférer l'offre d'EMC, composée exclusivement de numéraire. Sans entrer dans les détails, le CEO de Data Domain les a assurés que leur intérêt réside néanmoins dans un accord avec NetApp. De son côté, Joe Tucci, le patron d'EMC, réitère son offre à 30 $ par action en cash et souligne qu'elle est supérieure à celle de son concurrent. Il ajoute en outre que la transaction pourrait être réalisée rapidement. De quoi séduire les actionnaires de Data Domain, dans les mains desquels repose la décision finale. EMC pourrait également surenchérir : dans une telle hypothèse, NetApp pourrait avoir des difficultés à s'aligner, ses réserves de trésorerie étant bien moindres que celles de son concurrent. (...)

< Les 10 documents précédentsLes 10 documents suivants >