Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1531 à 1540.

< Les 10 documents précédentsLes 10 documents suivants >


(20/01/2009 17:32:39)

Intel baisse le prix de ses processeurs en réponse à la crise... et à AMD

Face à la crise économique dont découle un affaiblissement de la demande, Intel vient d'annoncer la baisse du prix de plusieurs de ses processeurs. Certains modèles seront désormais vendus presque deux fois moins cher que jusqu'alors. Ces chutes de prix ne sont pas réservées aux modèles d'entrée de gamme du fondeur, puisque les puissants Core 2 Quad sont concernés. Ainsi, le Q9650, cadencé à 3 GHz, voit son prix fondre de 40%, à 316 $ pour 1000 unités. Même tendance pour les Q9550, Q9440, Q8300 et Q8200, dont les prix de vente reculent de 16% à 20%. Aucune baisse de prix ne concerne malheureusement les Core i7, qui constituent le fleuron de la marque. Du côté des serveurs, Intel abaisse également le prix de ses Xeon : le X3370 pers 40%, à 316 $, le X3360 est désormais vendu 266 $, le X3350 coûte 266 $ et le X3330 224 $. Enfin, plusieurs processeurs plus anciens connaissent le même sort, à l'image des Pentium bi-coeurs E5300 et E2200 (-14%), et des Celeron mobile 585, 570, 560, 540 et 530, dont les prix reculent jusqu'à 48%. Ces initiatives s'inscrivent quelques jours seulement après qu'Intel a annoncé des résultats financiers catastrophiques. Au quatrième trimestre de l'exercice 2008, le chiffre d'affaires du fondeur s'écroule ainsi de 23%, et le bénéfice net s'effondre de 90%. Face à une demande en berne sur le marché des PC en raison du ralentissement économique, Intel préfère donc grignoter un peu plus sur ses marges et ses revenus en baissant le prix de ses processeurs, plutôt que de voir se constituer des montagnes de produits invendus. Ces baisses de prix constituent également une réponse à celles annoncées récemment par AMD sur ses Phenom II X4, des puces quadri-coeurs gravées en 45 nm et lancées il y a seulement quelques jours. Le Phenom II X4 940 est vendu 235 $ (-15%) et le X4 920 vaut 195 $ (-17%). (...)

(20/01/2009 12:53:20)

Lotusphere : LotusLive prend ses quartiers sur le cloud d'IBM

Hier à Orlando (Floride), l'édition 2009 de Lotusphere, grand rendez-vous annuel des utilisateurs des logiciels de collaboration Lotus d'IBM, s'est ouverte sur l'annonce de LotusLive. Cette suite est l'aboutissement du projet Bluehouse, en version bêta depuis octobre dernier. LotusLive propose, en ligne, une suite de services intégrés, hébergés sur les datacenters d'IBM : messagerie, outils de collaboration, de conférence Web et de réseau social. Reposant sur des standards ouverts, l'environnement applicatif a été conçu pour faciliter l'intégration avec des applications externes, hébergées sur un autre cloud, ou installées sur les serveurs des entreprises. Une mise en relation qu'IBM désigne sous l'appellation « Click to Cloud » et qu'il illustre concrètement à la faveur de partenariats noués avec le réseau social professionnel LinkedIn, avec Skype ou encore avec Salesforce.com. LinkedIn intégrera son site avec LotusLive, Lotus Notes et Lotus Connections. Skype permettra tout simplement de lancer un appel téléphonique sur IP ou une conférence Web à partir du carnet de contacts géré dans LotusLive. Quant à la plateforme de gestion de la relation client (CRM) de Salesforce, elle pourra à l'inverse exploiter les services de collaboration de LotusLive à partir de ses fichiers de clients et prospects. Un partenariat avec SAP Un partenariat avec l'éditeur SAP, concrétisé sous la forme du produit Alloy (ex-nom de code : Atlantic), livré en mars prochain, va aussi permettre d'accéder aux données de l'ERP SAP, ainsi qu'à des outils de reporting ou d'analyse, ou de s'insérer dans un workflow, sans sortir de l'environnement Notes. A la suite de son acquisition de Lotus en 1995, IBM a été l'un des principaux fournisseurs mondiaux de logiciels de communication et de collaboration à installer dans l'entreprise, avant que le développement des acteurs du Web ne vienne simplifier l'usage et baisser considérablement le coût de ces fonctions de partage, les technologies Web 2.0 les complétant en outre d'outils de blog et wiki, fils RSS... Ce qui a conduit IBM à créer en 2007 des solutions comme Lotus Connections et à s'atteler à son tour à la mise à disposition de ses logiciels en mode hébergé, sous forme de services. (...)

(19/01/2009 17:02:13)

Bull distribuera les logiciels de gestion énergétique des datacenters de Cassatt

Bull vient de passer un accord européen de coopération commerciale et technologique avec l'éditeur californien Cassatt. Ce dernier possède à son catalogue une suite de logiciels d'amélioration de l'efficacité énergétique des data centers. Le Français distribuera la suite logicielle de Cassatt en particulier sur ses serveurs Novascale et Escala. Cet accord s'inscrit dans la droite ligne de la stratégie menée depuis plusieurs mois par Bull, avec son Bio Datacenter en particulier, pour aider ses clients à faire de leurs datacenters des infrastructures moins consommatrices d'énergie tout en leur gardant leur efficacité. La suite Active Response de Cassatt, objet de ce partenariat, se décline en trois versions. L'édition standard éteint les serveurs inutilisés, physiques ou virtuels, et les remet en route en fonction de divers paramètres prédéfinis : heure, événement extérieur, capacité de calcul requise, etc. Elle répertorie par ailleurs les interdépendances applicatives qui mettent en jeu plusieurs serveurs. C'est un des autres critères qui engendrera un arrêt ou un redémarrage de machines. Active Response Premium s'appuie sur le même type de politique d'administration d'infrastructure mais elle propose, en sus, de regrouper les ressources dans des pools de disponibilité. Les nouvelles applications mises en place dans le centre serveurs trouvent ainsi plus facilement le support dont elles ont besoin. Jusqu'à 50% d'économies d'énergie pour les environnements de développement Enfin, l'édition Datacenter du logiciel s'intéresse à des infrastructures plus complexes, comprenant plusieurs milliers de serveurs, réparties sur différents sites géographiques. Selon le Californien, de telles méthodes réduiraient d'au moins 30% la consommation électrique pour des applications d'entreprise, et de près de moitié pour des environnements de développement. Outre le support des logiciels Cassatt, Bull continuera de proposer dans le cadre de ce partenariat ses services d'audit de datacenters, de définition de stratégies d'optimisation et de mise en oeuvre de ses propres solutions de gestion de la consommation électrique. Avec cette offre commune, les deux sociétés ciblent principalement l'administration, les télécommunications, la finance, la distribution, l'énergie et l'industrie, autant de secteurs où l'on trouve de nombreux centres serveurs. (...)

(19/01/2009 09:39:28)

Sun précharge ESX et Hyper-V sur des serveurs x64 Galaxy

Sun propose des configurations de ses serveurs W64 Galaxy avec les hyperviseurs de VMware et de Microsoft préinstallés. Pramatique, Sun ne se limite donc pas à proposer son propre hyperviseur xVM Server. Pour VMware ESX, le constructeur a retenu les modèles X4150, X4250 et X4450 auxquels il adjoint la baie de stockage 7210 de sa ligne "Unified Storage". Sun en profite pour annoncer un bon score de son modèle 7460 au banc d'essai VMmark de VMware. Ce quadri-processeur / 24 coeurs à base de Xeon réalise un meilleur score que ses équivalents d'IBM, de Dell et d'HP. Pour supporter Hyper-V de Microsoft, Sun a retenu le serveur X4250 et la baie J4200. (...)

(16/01/2009 16:47:16)

Pertes record en vue pour Hitachi

Selon le Nikkei Business Daily, principal journal financier japonais, le groupe Hitachi devrait annoncer des pertes record en 2008 dépassant les 100 milliards de yen (soit 836 millions d'euros) en lieu et place des profits attendus de 15 milliards de yen (soit 125 millions d'euros). Ces déconvenues seraient dues à un yen fort, mais également à la décroissance du marché des semi-conducteurs. Cette chute touche plus particulièrement Renesas, co-entreprise détenue par Hitachi et Mitsubishi, et septième fabricant de semiconducteurs mondial (en particulier pour l'automobile, la télévision et les disques durs). Malgré une restructuration de son activité stockage et les gains attendus dans la production d'énergie (centrales thermiques et nucléaires), Hitachi souffre dans son ensemble du ralentissement de ses ventes, notamment dans l'activité électronique grand public. Sans démentir totalement l'article du Nikkei Business Daily, Hitachi s'est fendu d'un communiqué officiel pour préciser que celui-ci n'est pas fondé sur des données officielles provenant de la société. Si ces pertes étaient confirmées le 31 mars prochain, ce serait la troisième année consécutive dans le rouge pour le groupe japonais. (...)

(16/01/2009 16:30:26)

Les responsables des datacenters sous pression

Faire plus avec moins, ainsi se résume le rapport que Symantec consacre aux datacenters. Publiée en pleine crise, la deuxième édition de cette enquête annuelle stigmatise la double pression mise sur les responsables de datacenter. D'un côté, ils doivent réduire leurs coûts, de l'autre la demande des utilisateurs va croissante. Pris dans cette tenaille, ils peinent aussi à recruter les compétences qu'ils recherchent et ils ne parviennent pas à optimiser l'exploitation des ressources serveur et stockage dont ils disposent. Pour achever le tableau, les plans de reprise d'activité (PRA) font figure de parent pauvre. Et le green computing dans tout cela ? Et bien, les motivations qui poussent à opter pour une informatique respectueuse de l'environnement relèvent avant tout des économies d'énergie qu'elle permet. Près de 50% des répondants indiquent qu'ils trouvent plus difficile que l'an dernier de répondre aux exigences des utilisateurs. Et ils sont dans le même temps 34% à avoir comme priorité de réduire les coûts. Pour y parvenir, l'automatisation des tâches quotidiennes arrive en tête (44% des répondants), suivie par la formation des informaticiens à plusieurs compétences (41% ). La première réponse technique, la virtualisation / consolidation des serveurs est à l'ordre du jour de 34% des entreprises. Il est vrai que les estimations actuelles portent sur une utilisation du parc installé à 60% de sa puissance. Ces projets s'inscrivent dans un contexte humain tendu. 37% des responsables déplorent un manque d'effectifs et 48% parlent du gros, voire de l'énorme problème, de trouver des professionnels compétents. Réalisée pendant l'explosion putride de la bulle spéculative, l'enquête indique que les budgets des datacenters étaient, à l'époque, orientés à la hausse dans 53% des entreprises (de 5 à 10% dans 50% des cas). Les postes de dépenses le plus en vue sont ceux des applications, de la consommation électrique et de la qualité de service.Bien évidemment, les responsables de datacenters concentrent leurs efforts sur les serveurs et le stockage. Pour les deux, dans 88% des entreprises, le maître mot est standardisation, avec une couche logicielle identique pour tous. Toutefois, les projets n'en sont qu'aux premiers balbutiements. Même situation en ce qui concerne tant la consolidation des serveurs que leur virtualisation : elles sont l'ordre du jour dans 87% des entreprises, mais elles n'en sont qu'aux prémisses. Enfin le rapport souligne que, plus les entreprises s'intéressent à la virtualisation, plus elles découvrent des écueils. En 2007, 31% déploraient un manque de maturité des solutions proposées, elles sont désormais 42%. Même évolution en ce qui concerne l'administration. Elles n'étaient que 18% à se plaindre de difficultés d'administration en 2007. Elles sont désormais 39%. Pour cette étude, Symantec a demandé à Applied Research d' interroger les responsables de 1 600 sociétés de plus de 5 000 personnes de par le monde. Parmi elles figurent 536 sociétés européennes, dont 95 françaises. (...)

(16/01/2009 09:53:54)

Annuels Intel : CA 2008 en baisse de 2%, et CA 2009 impossible à prédire

Badaboum. La fin de l'année 2008 a été rude pour Intel : chiffre d'affaires trimestriel en baisse de 23%, et bénéfice net en baisse de... 90% ! Le fabricant de processeurs avait de fait averti que son investissement dans Clearwire, opérateur Wimax, lui coûterait près d'un milliard de dollars, les difficultés de la crise économique pesant lourdement sur le cours de Bourse de Clearwire. Les résultats sont donc en ligne avec cet avertissement, même si les analystes attendaient un bénéfice net dépassant les 250 M$. Sur l'année, Intel explique la baisse de son CA par des soucis financiers, et indique que sans cela, le chiffre d'affaires serait légèrement en hausse par rapport à l'année précédente. La ventilation du chiffre d'affaires par ligne de produits montre que l'essentiel du chiffre est réalisé par les divisions Digital Enterprise Group (solutions d'entreprises de bout en bout, 20,6 Md$, en baisse de 3,15%) et Mobility (plateformes mobiles, 15,6 Md$, en hausse de 6,59%). Le reste a subi une chute brutale du chiffre d'affaires de 44,40%, à 1,3 Md$. Et si la division mobilité se porte bien, on ne peut pas dire que c'est celle qui rapporte le plus d'argent, le marché des netbooks étant important en volume mais pas en valeur. Ainsi, Intel se réjouit que sa ligne de produits Atom ait enregistré un CA de 300 M$ pour son quatrième trimestre fiscal, soit une hausse séquentielle de 50%. Mais dans le même temps, le fabricant explique que le prix moyen par processeur est resté étal, alors qu'il aurait pu augmenter en excluant la ligne Atom. 3 Md$ d'économies depuis 2006 grâce au plan de restructuration Pour 2009, Paul Otellini, PDG d'Intel, se refuse à établir des pronostics en matière de chiffre d'affaires, étant donné « l'incertitude économique et la visibilité limitée ». Il rappelle toutefois que plusieurs mesures ont été prises afin de « construire le futur ». Intel, qui finit l'année avec environ 84 000 employés (3% de moins qu'un an auparavant) aurait ainsi économisé grâce son plan de restructuration 800 M$ sur l'année, et 3 Md$ depuis 2006. Côté produits, Paul Otellini compte s'appuyer sur sa technologie de gravure en 32 nm pour accroître sa production tout en réduisant les coûts, et proposer au marché des produits plus intégrés (les fameux ordinateurs sur une puce). Ces derniers lui permettraient en effet de diversifier ses revenus en vendant à des fabricants de produits électroniques pouvant servir de terminaux Internet, comme les télévisions. Et bien évidemment, Intel attend beaucoup du lancement progressif de ses processeurs exploitant la toute nouvelle micro-architecture Nehalem. (...)

(15/01/2009 16:34:58)

Le projet d'astrophysique Planck s'offre un supercalculateur de plus de 12 Tflops

L'Institut d'Astrophysique de Paris (IAP) s'est doté d'un tout nouveau centre de calcul pour le projet Planck. Le satellite, qui a pris le nom du célèbre physicien, a pour vocation d'observer la lumière émise par l'univers tel qu'il était il y a plus de 13 milliards d'années, soit 380 000 ans après sa naissance. C'est la masse de données issue de ces observations (500 milliards de données brutes) qui devra être stockée et traitée par le biais des serveurs de l'IAP. HP, SGI et Sun ont répondu à l'appel d'offre, mais c'est IBM et son partenaire Serviware qui l'ont emporté. Si en termes techniques, les configurations se sont révélées assez proches les unes des autres, l'IAP, qui pilote pour le projet pour le compte de l'Agence spatiale européenne, a opté pour la prestation de service de Big Blue. Sur des pièces vitales comme le commutateur Voltaire (qui assure l'interconnexion des noeuds du cluster), Serviware s'engage à résoudre le problème dans la journée. Sur des éléments moins cruciaux, il intervient au pire le lendemain (J+1). Il faut dire que la moindre panne sur la machine revient à gâcher le temps de fonctionnement d'un satellite dernier cri... Les chercheurs voulaient un système économe, intégré et avec un système de fichiers fiable Pour la troisième mouture de leur centre de calcul, les chercheurs ont listé trois exigences principales. Pour commencer, il fallait un système clé en main sur lequel les chercheurs n'auraient pas à intervenir avec le niveau de service idoine. Ensuite, la configuration choisie devait entrer dans une enveloppe thermique et énergétique finie, puisque la salle machine de l'Institut n'est en aucun cas extensible. Selon Philippe Parnaudeau, le système IBM installé devrait dépenser 50 kW à plein régime sachant qu'il fonctionnera plutôt entre 60 et 70% de ses capacités. Enfin, dernière exigence, le système de fichiers devait être capable de gérer les masses de données issues du satellite de la façon la plus fiable possible. Le précédent calculateur s'appuyait sur le système Open Source Lustre. Mais Philippe Parnaudeau, chargé du cahier des charges et de l'infrastructure, précise que ce dernier « n'était pas assez mature lorsque [nous] l'avons testé ». Pour ces raisons, l'institut lui a donc préféré GPFS, le système de fichiers parallèle d'IBM. Un cluster de 132 noeuds, avec 128 To de stockage rapide Le système est un cluster iDataplex de 132 noeuds à base de quadri-coeurs Xeon E5472 à 3 GHz d'Intel (12Gflops par coeur, un cache de niveau 2 de 12 Mo, moins de 80W par processeur). Cette offre d'IBM, qui promet une puissance de plus de 12 Tflops, est destinée en particulier à réduire la consommation électrique et la dissipation de chaleur. C'est un commutateur Infiniband qui assure à la fois le passage de messages dans le cluster (MPI) et les échanges de données. Il assure une bande passante de 11,52 Tbps avec une latence de 420 ns. Le système de stockage rapide DCS 9900 d'IBM compte 160 disques pour une capacité utile de 128 To. Une configuration de stockage lente NFS lui ajoute 220 To. (...)

(15/01/2009 16:11:10)

Plus de la moitié des développeurs prévoient de travailler sur des projets Saas

Signe, s'il en était encore besoin, que le logiciel 'on demand' a le vent en poupe : plus de la moitié des développeurs (52%) prévoient de travailler sur des projets d'applications Saas (software as a service) en 2009. C'est la principale conclusion d'une étude réalisée par Evans Data auprès de 1300 développeurs dans le monde entier. Pour l'institut d'études, ce constat est la preuve que les entreprises prennent conscience des avantages du Saas, notamment son coût réduit et son déploiement plus simple que pour le modèle traditionnel. Actuellement, c'est en Amérique du Nord qu'on compte la plus grande proportion de développeurs travaillant sur des projets Saas (30%). Ils sont moins nombreux dans la zone EMEA mais Evans Data estime que 53% d'entre eux franchiront le pas cette année. Un taux qui devrait être encore supérieur en Asie. Par ailleurs, Evans Data note que les projets 'cloud' restent moins nombreux que ceux consacrés au Saas, avec moins de 10% des développeurs travaillant sur ce sujet. Ce nombre devrait toutefois progresser en 2009 : plus du quart des personnes interrogées prévoient des développements 'cloud' cette année et près de la moitié des développeurs asiatiques envisagent de travailler autour de ce thème. (...)

(14/01/2009 07:07:33)

Gartner : en 2009, les DSI devront faire mieux avec autant

C'est plutôt une bonne surprise, pour Gartner : les budgets informatiques ne diminueront pas en 2009. Le cabinet d'études a publié son enquête annuelle « CIO Agenda Survey », réalisée auprès d'un peu plus de 1500 entreprises et administrations, représentant un montant de dépenses IT annuelles de plus de 138 Md$. Il en ressort qu'après plusieurs années de croissance continue (1,3% en 2004, 2,5% en 2005, 2,7% en 2006, 3,0% en 2007 et 3,3% en 2008), les dépenses en 2009 seront étales, à + 0,16%. Le cabinet s'attendait-il à bien pire ? « Oui, répond Dave Aron, vice-président de Gartner. Nous prévoyions un tableau bien plus négatif, avec davantage de coupes, et de projets d'externalisation. » Ces derniers permettent en effet de transformer la structure des coûts, une opportunité bienvenue en ces temps de crise économique. « Or, il n'y a pas de signaux en ce sens. » De même, si Gartner conseille aux DSI de saisir l'opportunité de remettre à plat leur organisation, et de « couper les branches mortes », il ne devrait pas y avoir de plans de licenciements, du moins pas en grand nombre. « Rien ne le laisse présager, et les départements informatiques sont déjà bien maigres. Il faut noter en outre que très peu d'entreprises subiront une baisse de leur budget IT de plus de 10%. En Europe, par exemple, cela ne concernera que 8% des entreprises. » Gartner aux DSI : « travaillez plus intelligemment » Reste que les DSI devront tout de même se serrer la ceinture, alors que la pression venant du métier n'a aucune raison de diminuer, au contraire. Pour Gartner, l'informatique pourra toujours apporter de la valeur à condition d'être plus efficace. En d'autres termes, « il ne s'agit pas de faire plus avec moins, mais de travailler plus intelligemment ». Dave Aron explique que « les DSI vont devoir prendre au sérieux la notion de stratégie, et établir des priorités en fonction de ce que l'IT peut apporter au business ». L'analyste s'attend à très peu d'investissements dans les nouvelles technologies. « Un peu de Web 2.0, de virtualisation, de collaboratif. » Gartner conseille plutôt de faire porter le gros des efforts sur « une utilisation plus stratégique des technologies déjà en place, comme le décisionnel, dont la plupart des projets jusqu'à présent ont échoué à vraiment délivrer de la valeur ». Gartner conseille un pilotage des projets par le risque [[page]] Le conseil de Gartner pour utiliser plus efficacement des technologies déjà installées ? « Etablir des métriques strictes pour mesurer la valeur en termes métier, explique Dave Aron. C'est ce que font les DSI les plus avancés. » Ils doivent aussi sortir de leur sphère d'influence, et parler en termes métier avec le directeur financier et le directeur général. C'est ainsi qu'avec les outils de gouvernance appropriés, ils pourront piloter les projets en termes de risques. « Les DSI doivent se demander : quels risques y a-t-il si j'annule tel projet ? Quels risques y a-t-il si j'investis dans tel projet ? » SOA, virtualisation et cloud apportent une flexibilité bienvenue Pour Dave Aron, si les DSI mettent en place cette stratégie, tous les projets à long terme ne sont pas condamnés. On pense par exemple aux SOA (architectures orientées services), qui impliquent à la fois de la transformation du SI et une démarche transversale. « Les SOA sont toujours sur le radar des DSI, d'autant plus qu'elles n'impliquent pas nécessairement un projet d'un seul tenant, cela peut être fait de façon très modulaire. » En outre, remarque Dave Aron, « les SOA contiennent une promesse de flexibilité, d'agilité, tout comme la virtualisation et le 'cloud computing', ce qui rend ces technologies particulièrement intéressantes en ce moment ». Parmi les autres priorités des DSI listées par l'enquête de Gartner, on retrouve, principalement en France, d'ailleurs, la volonté d'améliorer la qualité du service rendu par l'IT. Ce qui dénote peut-être un léger manque de maturité sur les solutions orientées Itil (référentiel de bonnes pratiques), observe Dave Aron. La bonne nouvelle est que les DSI français devraient être un peu plus gâtés que leurs homologues étrangers. Gartner, qui a interviewé 16 entreprises françaises (totalisant 4 Md$ de dépenses informatiques), arrive à la conclusion qu'en France les budgets devraient connaître une légère augmentation, de 1,26% en moyenne. (...)

< Les 10 documents précédentsLes 10 documents suivants >