Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1271 à 1280.

< Les 10 documents précédentsLes 10 documents suivants >


(10/12/2009 10:37:26)

Faute d'accord avec IBM, Cisco a lancé ses propres serveurs

Cisco avait tenté de nouer des partenariats avec de grands fabricants de serveurs, il y a plusieurs années avant de lancer ses propres serveurs en lames en début d'année. Mais la société est toujours ouverte à un partenariat avec IBM, a déclaré John Chambers, PDG de Cisco, lors d'une conférence organisée le 8 décembre à destination des analystes financiers, au siège de son entreprise à San Jose (Californie). « Je pense toujours que c'est dans le meilleur intérêt d'IBM de travailler avec nous. Cette porte sera toujours ouverte » affirme John Chambers. Récemment IBM avait annoncé un accord par lequel il commercialiserait les commutateurs et les routeurs de Juniper Networks, sérieux concurrent de Cisco. John Chambers et d'autres dirigeants de Cisco ont passé l'essentiel de la journée à dire aux analystes financiers que Cisco a une fenêtre d'opportunité maintenant pour devenir le vendeur dominant en matière de technologies de l'information et pour les communications à cause de l'importance grandissante de la virtualisation, de la collaboration et de la vidéo. Une des démarches clés de Cisco dans ce domaine a été le partenariat récent avec EMC et VMWare. Dans le cadre d'une entreprise conjointe, appelée Acadia, EMC intégrera ses équipements de stockage et son logiciel d'administration avec l'architecture UCS (Unified Computing System) de Cisco, et Vmware délivrant son logiciel de virtualisation. Le PDG estime que cet accord peut permettre à Cisco de prendre une place centrale dans les salles informatiques sans devoir fabriquer lui-même des systèmes de stockage. « Si nous avions pu former un partenariat aussi fort avec un vendeur de serveurs, Cisco n'aurait pas développé ses propres serveurs »a avoué John Chambers. [[page]] Les analystes présents estiment que John Chambers est sincère quant à sa volonté de travailler avec IBM. Les deux entreprises ont beaucoup en commun à l'instar de leur base de clients, et les produits de Cisco peuvent s'insérer dans les offres d'IBM, souligne Mark Sue de RBC Capital Markets. Mais les ponts sont brûlés entre Cisco et HP, qui fut longtemps un partenaire proche de Cisco, pensent les analystes. L'offre UCS de Cisco entre en concurrence directe avec l'activité serveurs de HP, et le mois dernier HP a annoncé son intention de racheter 3Com, attaquant ainsi Cisco sur son coeur de métiers, les réseaux. Quant à l'acquisition du norvégien Tandberg par Cisco, John Chambers s'en félicite. « Cette acquisition va nous donner accès à 5 dirigeants de haut niveau. L'équipe dirigeante de Tandberg pourrait être la meilleure équipe de management que nous ayons eu depuis l'acquisition de Crescendo en 1993 » affirme John Chambers. John Chambers estime que Cisco devrait acquérir plus de sociétés étrangères dans les années qui viennent. « Il suffit de voir que l'Inde et la Chine voient arriver 600 000 ingénieurs diplômés chaque année, quand il n'en arrive que 60 000 de nouveaux aux Etats Unis. Nous devons aller où se trouvent les talents, et où se trouvent les start-up » souligne-t-il. (...)

(09/12/2009 13:58:52)

La police de Copenhague se dote d'un PC opérationnel 100 % Mac

En plein coeur de Copenhague, l'imposant bâtiment de la police, autrefois un centre de détention pour femmes, s'est mué en quartier général bardé d'électronique et d'informatique. Pour les besoins de sécurité, d'abord locaux puis internationaux, l'édifice est devenu un centre d'opérations sophistiqué et une plateforme pour tous les appels d'urgence. Surtout, cette tour de contrôle et d'observation pour écouter, voir et contrôler, repose sur une solution originale avec des XServe et des Mac Pro fournis par Apple. Si les récents évènements qui ont mis la ville au centre de l'attention et de l'actualité internationale ne sont pas étrangers à cette transformation, les années d'expérience de Karsten Højgaardl, responsable de ce projet informatique et, également, inspecteur de police, comptent tout autant. Ce spécialiste de la surveillance connait bien ses plateaux d'opération - quatre étages de 200 mètres carré - où il travaille chaque jour à la sécurité de ses concitoyens. C'est lui qui dès 2007, s'est mis en quête de trouver le système adéquat pour remplacer une configuration de Macintosh tournant depuis une dizaine d'années sous Mac OS X Server 1.0, une évolution de Nextstep pour PowerPC. Une solution fiable, mais devenue lente et surtout un peu obsolète avec le temps :" On avait bien prévu des stocks de pièces pour nos machines, mais on arrivait au bout et il fallait parfois bricoler des solutions pour réparer nos ordinateurs!", raconte t-il. Le chef de projet mène son enquête en Europe et aux Etats-Unis à la recherche de la bonne solution. "J'ai visité des centres de contrôle en Angleterre et en Allemagne qui tournaient sous Windows, mais ils faisaient à peine mieux que notre vieux système que je connaissais bien. Trop lent et même moins convivial." Karsten Højgaard voyait le calendrier des évènements internationaux se remplir et se rapprocher peu à peu : réunion du Comité Olympique International, Conférence Internationale sur le Climat. Il pensait aussi au mode de fonctionnement de son plateau de dispatche du N°112 situé au dernier étage du bâtiment qui reçoit entre 800 à 1200 appels par jour pour répondre aux besoins d'urgence d'une population de 1,2 million d'habitants. "Dans les centres tournant sous Windows que j'ai visité, il fallait 20 à 30 personnes pour les faire tourner, et ils géraient moins d'appel. Nous faisons fonctionner le nôtre avec 6 à 8 officiers de police seulement." Finalement, l'idée d'une solution 100% Mac lui est soufflé par son fournisseur informatique FrontLine. En plus, elle coûte au final moins cher. Crédits photo Per Gudmann [[page]] Ensemble, ils établissent un système hiérarchisé autour de six configurations toutes Macintosh sous Mac OS X, à la tête duquel ils placent 28 serveurs XServe identiques : puces quad core Intel Xeon 2,26 GHz, avec 12 Go de Ram, et 3 disques durs de 1 téraoctets en Raid 5 pour pallier aux pannes et prendre en charge la sauvegarde de tout ce qui est affiché sur les 73 écrans de la salle de contrôle. En dessous, ils ont configuré une batterie de 81 Mac Pro, dont 21 avec des processeurs quad core Intel Xeon 2,93 GHz (dotés chacun de 3 disques durs de 1 téraoctets en Raid 5, de 2 cartes graphiques nVidia GeForce GT 120 contrôlant 3 écrans de 24" et 30") et 60 avec des puces quad core Intel Xeon 2,66 GHz avec disque dur de 1 téraoctets, carte graphique nVidia GeForce GT 120 connectée à un écran 30". Enfin, au sommet de cette pyramide de Macs, ils ont placé 73 Mac mini, animés par des composants Intel Core 2 Duo 2,26 GHz, uniquement chargés de gérer l'affichage des 73 écrans qui tapissent les murs de la salle de contrôle, plus une quarantaine de Mac mini, avec des Intel Core 2 Duo 2,53 GHz cette fois et écran de 19", dédiés aux appels et aux opérations de dispatching. Soit au total, plus de 220 unités Macintosh et pas une seule machine tournant sous Windows. "L'intégration a été facile : le système offre une meilleure compatibilité avec l'ancienne configuration et il est rapide et fiable. Enfin, l'adaptation à ce nouvel environnement s'est bien passée parce qu'il est plus convivial." Au passage, l'inspecteur signale que "le système est aussi plus sûr". Mais nous n'en saurons pas davantage sur le sujet... Car en dehors des évènements courants, y compris les appels des pompiers et les déplacements réguliers de la famille royale, le centre gère aussi les évènements exceptionnels. Depuis juillet dernier, le centre d'opérations spéciales a pu faire ses preuves lors de la visite de nombreux chefs d'état étrangers, dont Barack Obama, venus assister au Comité International Olympique dans la capitale danoise. Aujourd'hui, le sommet de Copenhague met le centre dans le feu de l'action. Pour l'occasion, les ordinateurs ont été équipées d'un système de contrôle par GPS de tous les véhicules officiels se déplaçant pendant le sommet, qui permet également de communiquer avec les unités de police présentes sur le terrain. Mais Karsten Højgaard est confiant: "dans tous les centres que j'ai visité, il y avait des papiers et des crayons à chaque poste de contrôle. C'est pour moi le signe que quelque chose ne fonctionne pas bien. Ici, rien de tout cela. Nous pouvons effectuer nos opérations de contrôle, entrer nos informations et gérer tous les flux d'appel au fur et à mesure. Essentiellement parce que, grâce à notre configuration, nous pouvons travailler vite." (...)

(08/12/2009 17:40:24)

IBM offre les services de Tivoli en ligne aux entreprises de taille moyenne

IBM a décidé de proposer les fonctions de Tivoli, sa solution d'administration de systèmes, sous la forme d'un service hébergé. Cette offre vise les entreprises qui pourraient être davantage tentées par une formule d'abonnement que par le déploiement du produit en interne. Tivoli Live Monitoring Services doit permettre à une équipe informatique de garder l'oeil sur 25 à 500 ressources IT (serveurs, systèmes d'exploitation, machines virtuelles et applications). Sur réception d'une alerte, ils seront avertis qu'une application montre des signes de faiblesse, qu'un serveur risque de manquer de mémoire ou qu'une page Web met un peu trop de temps à s'afficher. Le service Il existera en deux versions. La première a recours à des agents pour surveiller les systèmes d'exploitation, les machines virtuelles et les applications de type base de données ou serveur de messagerie (tels que Microsoft Exchange, par exemple). Elle revient à 58 dollars par mois pour chaque ressource surveillée. La deuxième offre ne comprend pas d'agents. Sa tarification démarre à 44 dollars par ressources et par mois, pour la surveillance d'équipements matériels, d'OS, de sites Web et la gestion d'alertes SNMP. Pour les deux versions, IBM facture des frais de mise en place de 6 500 dollars par client. Disponible dans plusieurs pays, mais pas encore en France En option, le fournisseur propose un service de reporting, pour un tarif mensuel de 15 dollars par ressources. Cet historique des données est utile pour faciliter les opérations de dépannage et prévoir les besoins en ressources. Ce service de surveillance en ligne repose sur les solutions Tivoli Monitoring 6.2.1, Tivoli Monitoring for Microsoft Applications 6.2 et Tivoli Composite Application Manager for Applications 6.2. Bien qu'IBM vienne tout juste de l'annoncer, cette offre de service est en fait opérationnelle depuis le mois dernier aux Etats-Unis, selon un blog interne. Elle est également disponible dans un certain nombre de pays à travers le monde : Canada, Royaume-Uni, Australie, Hong-Kong, Scandinavie... Pour l'instant, elle n'est pas encore accessible en France, mais il est prévu qu'elle soit étendue à davantage de pays en 2010. IBM propose déjà plusieurs de ses produits sur Amazon Web Services et la semaine dernière, il a installé son offre Tivoli Monitoring sur le cloud EC2 d'Amazon afin d'assurer une surveillance de ses logiciels qui s'exécutent sur ce service. Interrogé sur l'offre Tivoli Express déjà proposée par ailleurs aux PME, IBM a reconnu qu'il n'avait peut-être pas fait aussi bien qu'il aurait voulu. Pour Michael Coté, analyste de RedMonk, l'un des défis pour IBM sur son offre Tivoli, c'est effectivement de pouvoir descendre dans des entreprises de taille moins importante. Parmi les petits éditeurs offrant déjà des services de monitoring des ressources IT en ligne figurent des acteurs comme Accelops, InteQ, et ManageEngine (entité de Zoho). Microsoft et BMC Software développent aussi des services. (...)

(04/12/2009 15:34:01)

Constellation, le projet de BI collaborative de SAP

Sous le nom de Constellation, SAP prépare une application collaborative d'aide à la décision, qui se présenterait comme une « salle d'opérations » virtuelle ('war room'), cellule de veille où l'on partage des informations pour engager des actions dans la foulée. Cette application associera un outil accessible dans le cloud, depuis un navigateur Internet, et des composants installés en interne dans l'entreprise. C'est ce qu'a récemment expliqué David Meyer, vice président responsable des technologies émergentes pour SAP BusinessObjects, lors d'une présentation sur le Web à certains membres très impliqués de la communauté SAP. L'outil qui doit fonctionner dans le cloud est actuellement en test bêta privé sous le nom de code 12Sprints. On peut s'enregistrer sur le site qui lui est consacré pour le découvrir.

En mai dernier, à l'occasion de la conférence utilisateurs Sapphire d'Orlando, le PDG de SAP, Léo Apotheker, avait lui-même évoqué, le développement de Constellation, en décrivant une application combinant des fonctions de business intelligence et des outils de type Web 2.0. On en sait maintenant un peu plus. David Meyer a montré comment des utilisateurs pouvaient collaborer en temps réel autour d'un problème donné en s'appuyant sur différents outils d'aide à la décision et de gestion de projets. « Il ne s'agit pas seulement d'un espace de discussion, explique-t-on sur le site 12Sprints.com. On rassemble les personnes concernées par un dossier, on leur présente les données correspondantes et l'on choisit les actions à mener avec l'aide d'outils interactifs intégrés. »

Lors de sa présentation, David Meyer a par exemple déroulé un scénario utilisant la méthodologie Swot (strengths, weaknesses, opportunities, threats) consistant à définir une stratégie en analysant conjointement les forces, faiblesses, opportunités et menaces associées à une situation.

Streamworks de SAP

Idéalement, de 5 à 30 personnes peuvent intervenir dans l'un de ces groupes de travail. Mais l'éditeur allemand a prévu de fournir les moyens de publier des activités vers des wikis, ou vers d'autres plateformes comme SharePoint afin de toucher une audience plus large, a précisé David Meyer. Quant aux composants de Constellation situés hors du cloud, qui en sont à un stade de développement moins avancé, ils permettront aux utilisateurs de puiser de façon sécurisée et à partir d'un seul point, dans les différents entrepôts de données et contenus non structurés de l'entreprise.

Une ouverture prévue vers Google Wave
[[page]]
Un cadre ouvert mais contrôlé

Parmi les applications possibles, David Meyer a cité notamment les processus de décisions d'achat qui se règlent aujourd'hui par téléphone, avec une déperdition d'informations et de connaissance. Sur le plan de la sécurité, Constellation offre un cadre ouvert mais contrôlé. Les utilisateurs pourront travailler comme ils l'entendent, mais un contrôle sera opéré sur la façon dont les choses se passent pour corriger certains points, un risque de fuite de données par exemple. « On pourra empêcher certaines actions », a précisé David Meyer. La tarification de Constellation est toujours à l'étude. Néanmoins, on sait déjà que l'offre devrait comporter trois volets. Il y aura une option gratuite, qui donnera accès à un nombre limité d'activités, et deux versions payantes. Des portions de code seront fournies pour connecter les logiciels BI de BusinessObjects à Constellation. En complément, les utilisateurs de SAP ERP depuis la version 4.6c pourront afficher des contenus vers Constellation dans le cadre de réunions virtuelles.

Une boutique d'applications et une intégration avec Google Wave


David Meyer a également indiqué que SAP prévoyait de créer pour cette plateforme une boutique d'applications sur laquelle les développeurs pourront mettre en vente les méthodes ou les intégrations spécifiques qu'ils auront mises au point. Constellation peut s'adapter à de nombreuses technologies. « Vous pouvez développer dans n'importe quel langage, a affirmé David Meyer. Un peu comme pour un Facebook. » SAP planche aussi sur l'intégration de Constellation à des plateformes de collaboration comme Google Wave. « Il est évident que nous avons besoin de travailler ensemble, a confirmé David Meyer. Il sera possible de partager des contenus entre nos plateformes. » En octobre dernier, SAP Research avait déjà montré une application exploitant Google Wave, baptisée Gravity. Créée avec l'équipe de développement de SAP Netweaver, celle-ci permet de développer des modèles de processus dans le cadre d'une fusion entre deux entreprises. Dès janvier prochain, SAP en dira davantage sur Constellation. L'outil destiné au cloud sera disponible au cours du premier semestre. La partie hors cloud devrait entrer en version bêta en avril et être livrée courant 2010. (...)

(03/12/2009 16:46:23)

Intel dévoile une super puce 48 coeurs qui soulève de nombreuses interrogations

Jusqu'à 48 coeurs dans un processeur gravé en 45 nm, c'est la performance technologique dévoilée par les chercheurs d'Intel. Cette démonstration préfigure les serveurs de demain qui pourront être de type « single-chip cloud computer ». Avec un oeil sur les datacenters et un autre sur le cloud, Intel envisage de produire des processeurs multicoeurs d'un genre nouveau au sein d'un programme baptisé « terascale ». « Avec des puces de ce type, vous pouvez imaginer un cloud reposant sur un data center très performant et consommant beaucoup moins d'énergie que les systèmes actuels, ce qui signifie économiser des ressources quant à la surface occupée et aux frais de fonctionnement (refroidissement et consommation électrique) », explique Justin Rattner, responsable des laboratoires de recherche et CTO d'Intel. Un point très important quand on sait que 100% de l'énergie consommée par un datacenter est convertie en chaleur et qu'il est ensuite nécessaire de réguler la température (22° recommandés aujourd'hui) avec des systèmes de refroidissement par air ou par eau, également énergivore. Justin Rattner envisage également de produire des puces de ce type pour des usages très grand public comme les calculateurs automobiles pour contrôler des systèmes électroniques comme l'injection, l'ABS ou le déclenchement des airbags. Des performances de l'ordre du téraflop Deux ans après avoir exhibé une puce expérimentale 80 coeurs, qui n'était pas totalement fonctionnelle, Intel franchit un grand pas avec ce prototype de processeur 48 coeurs. Certains problèmes comme la communication entre les coeurs ont pu être améliorés et les ingénieurs ont exploré de nouvelles architectures pour concevoir des cores design plus efficaces. Aujourd'hui, la puce 48 coeurs offre des performances de l'ordre du téraflop, mais avec la consommation électrique d'un processeur quad core (de 25 à 125 W). Ce processeur intègre 4 contrôleurs mémoire DDR3 (64 Go max) et un réseau de communication offrant une bande passante de 256 Go/s. Pour fonctionner efficacement, les systèmes d'exploitation et les applications pourront utiliser certains coeurs en priorité et répartir d'autres tâches sur des coeurs annexes. Comme certains processeurs déjà sur le marché, cette puce multicoeurs peut adapter la tension et la fréquence d'horloge des unités de calcul. Une condition sine qua non pour régler le niveau de performances en fonction des besoins et utiliser le minimum d'énergie nécessaire. [[page]] À l'occasion de cette annonce, Intel explique qu'il prévoit de distribuer une centaine de puces 48 coeurs expérimentales à des centres de recherches universitaires travaillant sur les applications et les modèles de programmation multicoeurs. Le professeur Tim Roscoe, du département d'informatique de l'École Polytechnique de Zurich, a déjà indiqué être très intéressé par le « single-chip cloud computer ». « Dans le cadre du projet Barrelfish, nous concevons en effet des architectures de système d'exploitation pour les futurs systèmes multicoeurs. Le contrôleur mémoire de cette puce et le système de transmission des informations sont donc parfaits pour nous. C'est le véhicule idéal pour tester et valider nos idées». Plusieurs questions sans réponses Plus mesuré, Dan Olds, analyste chez Gabriel Consulting, indique que cette puce expérimentale est une étape importante pour le développement de nouvelle génération de processeurs, mais qu'Intel devrait livrer plus de détails sur cette technologie. "Les puces multicoeurs sont devenues la norme avec des processeurs bi et quadri coeurs utilisés dans presque tous les systèmes. Le nombre de coeurs va certainement augmenter avec le temps, mais cela arrivera à petits pas - de deux à quatre coeurs, de quatre à six, puis de huit et dix dans les prochaines années. Cette puce 48 cores est un objectif important qui place le marché dans une certaine perspective. " Dan Olds poursuit en indiquant qu'Intel devrait expliquer ce que signifie vraiment 48 coeurs 'pleinement fonctionnels'. « Nous avons besoin de plus d'informations de la part d'Intel pour comprendre exactement comment un tel bond en avant a pu être possible, ajoute-t-il. Par exemple, peut-elle gérer le jeu d'instructions x64 standard ? C'est un point très important pour déterminer si un logiciel existant sera capable de tourner sur cette plateforme ou s'il sera nécessaire de le porter. Avec un volume de seulement 100 unités, c'est plus un projet scientifique qu'un prototype réel. Il s'agit d'un projet scientifique important, qui pourrait apporter beaucoup à l'industrie, mais cela reste un projet scientifique. " (...)

(03/12/2009 11:20:55)

Selon le Gartner, le cloud privé gardera longtemps la faveur des entreprises

Le Gartner scrute l'avenir du cloud computing jusqu'en 2012. La dépense des entreprises se portera davantage vers les solutions de cloud privé (interne ou externe) que de cloud public. Selon Tom Bittman, vice-président chez Gartner : « Dans la réalité, les entreprises vont privilégier une organisation informatique qui gère et qui garde les ressources informatiques en interne. Mais ces ressources pourront être traitées en cloud computing et les prestataires extérieures auront toujours leur rôle ». Dans les années à venir, selon le Gartner, le cloud computing sera de plus en plus mixte, privé et public, avec des arbitrages fréquents entre les deux formules. Ce modèle hybride va prévaloir. Pour de nombreuses grandes entreprises, les services de cloud privé seront nécessaires pendant de nombreuses années, voire des décennies, en attendant l'émergence d'un cloud public mature. Les entreprises entrent ainsi dans un long processus. « Les investissements en cloud ne tiennent pas seulement aux changements technologiques, ils enclenchent aussi le processus, culturel et commercial de changement», a déclaré M. Bittman. "Faire ces changements le plus tôt possible aidera les entreprises à mieux prendre les bonnes décisions. Chaque service passé en cloud aura une feuille de route différente pour l'avenir, certains devraient être axés sur le renforcement de l'intégration, la personnalisation et la différenciation pour l'entreprise", a déclaré M. Bittman. "D'autres devraient être axés sur l'indépendance, la personnalisation des interfaces simples, la normalisation et seront des candidats potentiels, pour du cloud public. » Les DSI devront avoir des équipes spécialisées pour orienter les ressources en cloud. De ce fait, les PME, fautes de services dédiés auront plus de mal à passer au cloud computing ou devront faire appel à des sociétés très spécialisées qui offriront une vraie responsabilité et des tarifs attractifs. (...)

(01/12/2009 16:25:10)

L'US Air Force commande 2200 PS3 pour construire un supercalculateur

Un article récent de notre confrère Information Week révèle que le centre de recherche de l'US Air Force à Rome dans l'état de New York a présenté une demande d'achat portant sur 2 200 consoles de jeux Sony PS3 (299 euros l'unité environ). Conçue par IBM, Sony et Toshiba, la puce Cell, cadencée à 3,2 GHz, repose sur un coeur principal PowerPC et huit autres unités spécifiques offrant une puissance de calcul vectoriel de 230,4 GigaFlops. Cette commande fait suite à un premier test avec 336 PS3 utilisées pour faire du calcul intensif, la spécialité de ce centre. Spécialement adaptées pour fonctionner sous Linux, ces consoles de jeux sont reliées entre elles sur un réseau Ethernet afin de former un cluster de puissance. Les processeurs Cell qui équipent les PS3 sont particulièrement bien adaptés pour développer un supercalculateur « bon marché ». Des logiciels commerciaux et développés en interne sont ensuite utilisés pour traiter et analyser des vidéos haute définition, compiler plusieurs images radars pour former une représentation HD et même essayer de créer un ordinateur neuromorphique capable de fonctionner comme le cerveau humain. Un choix réfléchi après une sévère évaluation Pour ce programme test, le centre de recherche militaire de Rome (NY) a bénéficié d'un financement de 2 millions de dollars pour évaluer et développer de nouvelles technologies de calcul intensif. Avant de choisir la PS3 comme plateforme de référence pour la construction de ce super calculateur, l'US Air Force avait testé plusieurs solutions dont une ferme de serveurs Intel Xeon. Mais au final, le rapport prix/puissance de la console de jeux était beaucoup plus intéressant pour construire un supercalculateur. D'autres services publics comme le laboratoire national de Los Alamos ou le centre d'étude américain sur la cybercriminalité ont également construit des supercomputers PS3 pour reproduire les fonctions neurologiques du cerveau humain ou « casser » les mots de passe utilisés pour verrouiller des informations dans des affaires pédophiles. (...)

(01/12/2009 10:55:15)

Le marché mondial des serveurs ralentit sa chute au troisième trimestre selon Gartner

Au troisième trimestre 2009, le marché mondial des serveurs accuse une baisse de 15,5% à 10,7 milliards de dollars, et un recul de 17,1% à 1,2 millions d'unités vendues, en volume, par rapport à la même période l'an dernier, selon Gartner. En revanche, sur un plan séquentiel, par rapport au 2ème trimestre 2009, les ventes progressent de 13,8% en unités et de 10,2% en chiffre d'affaires. Le cabinet d'études estime donc que le marché montre des signes de stabilisation. En Europe, les ventes de serveurs baissent de 22,8% en chiffre d'affaires et de 22,9% en nombre d'unités vendues (526 000). Au niveau mondial, IBM en tête en valeur et HP en volume A l'échelle mondiale, les acteurs du marché conservent leurs positions. IBM garde la tête avec 31,7% de parts de marché, mais son chiffre d'affaires sur les serveurs recule de 12,3% par rapport au troisième trimestre 2008. HP affiche 30,2% de parts mais avec un recul de 15,1% de son CA. Au 3ème rang, Dell limite la casse avec -5,1% sur le CA et 13,4% des parts. Sun s'effondre avec des ventes en recul de 32,3% en valeur et 7,4% de parts de marché. Fujitsu ferme la marche avec 5,2% de parts de marché et -10,8% sur son chiffre d'affaires serveurs. L'autre classement, celui des ventes en volume, fait ressortir HP à 32,1% de parts de marché, avec quelque 615 700 unités vendues, soit une baisse de 15% par rapport aux ventes du troisième trimestre 2008. Dell occupe 22,8% du marché, avec des ventes en retrait de 12,6% (437 447). IBM ne détient que 12,8% du marché en volume (en baisse de 20,1%, à 246 493 unités). Fujitsu pour sa part baisse de 9% à 3,5% de parts. Sun affiche -38,1% et 2,6% de parts de marché. HP numéro 1 des ventes en Europe, en volume et en valeur En Europe, et en chiffre d'affaires, HP garde la tête (39,5% des parts) mais recule de 22,9%, IBM le suit avec 28,7% du marché en baisse de 17,4%. Dell, troisième, compte 10% de parts de marché et baisse de 16,2%, Sun est à 8,4% en baisse de 36%, enfin, Fujitsu, occupe 6,5% du marché, en retrait de 28,6%. En nombre d'unités vendues, HP est également n°1, avec 44,8% du marché, en baisse de 19,9%, Dell occupe 17% du marché en baise de 23,1%, IBM est à 12,2% des parts en baisse de 30,6%, Fujitsu est à 6,9% en baisse de 16,2%, Sun est à 3% des parts en baisse de 35,8%. (...)

(24/11/2009 10:46:07)

La première promotion d'ingénieurs z/OS de la zAcademy a été certifiée par IBM

IBM a certifié la première promotion de la zAcademy, un cycle d'enseignement mis au point par le constructeur en partenariat avec Sogeti et La Banque Postale. Pour cette première édition, ce sont 10 professionnels de la SSII et de la banque qui ont été formés et certifiés en tant qu'ingénieurs systèmes z/OS. Le programme, qui s'est étalé de décembre 2008 à novembre 2009, a consisté en « un parcours théorique et pratique spécialisé dans les technologies mainframes et appliqué au domaine de la banque ». De fait, les grands systèmes ne sont pas franchement les plus prisés par les jeunes générations, et la pyramide des âges nécessite un certain renouvellement, comme l'explique dans un communiqué Philippe Blin, DSI de La Banque Postale. Il s'agit pour lui d' « offrir des perspectives d'évolution, organiser la transmission du savoir-faire des experts partant à la retraite, investir sur la formation des jeunes ingénieurs... » Le partenariat est formé pour une durée de trois ans. La deuxième session de formation commencera en janvier prochain. (...)

(18/11/2009 14:46:03)

Avec son cloud Azure, Microsoft lance une place de marché et des services associés

Lors de sa conférence développeur PDC 2009, Microsoft a officiellement annoncé la date de disponibilité de sa plateforme cloud Windows Azure (voir tarifs en ligne): ce sera donc le 1er janvier 2010. Avec cette solution, l'éditeur complète sa stratégie S+S, Software + Services, et arrive sur un marché en plein essor : la fourniture de prestations en ligne (location de ressources, d'espace de stockage, de logiciels et d'autres services), facturées en fonction de l'usage à destination des entreprises comme du grand public. Solution ambitieuse, Azure vient concurrencer les offres d'IBM, de Sun ou d'Amazon.com qui avaient cru, bien avant Redmond, au Cloud Computing. C'est Ray Ozzie, architecte logiciel en chef de Microsoft, qui a présenté Windows Azure et SQL Azure lors de son discours d'ouverture. « Nous entrons dans une nouvelle ère de solutions auxquelles les utilisateurs accèdent déjà via leur PC, leurs téléphones mobiles et le web. Ces ressources reposent déjà sur des data center que nous désignons par les termes de « cloud privé » et de « cloud public ». Dans son allocution, Ray Ozzie illustrait cette nouvelle façon d'utiliser les ressources informatiques avec l'analogie des « trois écrans et du nuage (cloud) », à savoir diffuser des logiciels et des services sur des PC, des terminaux mobiles et des télévisions. Cette vision de "trois écrans et d'un nuage» permettra aux développeurs de créer des applications qui peuvent être réutilisées et livrées via un cloud (Windows Azure), sur un serveur (Windows Server) ou sur le bureau de l'utilisateur (Windows 7), selon ce qui sera le plus commode ou offrira les meilleures performances, explique Ray Ozzie. Une place de marché maison pour accompagner Azure La plateforme Azure est accompagnée d'une place de marché en ligne baptisée PinPoint, permettant aux partenaires de proposer et de vendre leurs applications. Solution concurrente de Salesforce.com, une market place disponible depuis 4 ans, PinPoint proposera plus de 7000 logiciels et pourra compter sur un service d'organisation des données, connu sous le nom de code « Dallas », reposant entièrement sur les solutions Windows et SQL Azure. Grâce à « Dallas », les développeurs et les utilisateurs pourront accéder à des données de référence depuis n'importe quelle plateforme, pour construire leurs propres services et mashups (combinaison de plusieurs sources d'informations). Les ressources actuellement disponibles dans « Dallas » sont de type gratuites ou payantes et incluent notamment celles de Navteq, WaveMarket, CitySearch, First American, RiskMetrics Group ou infoUSA.com. Signalons toutefois que tout comme Azure, « Dallas » est, pour l'instant, uniquement disponible en version CTP limitée (Community Technology Preview). « Windows Azure va finir sa période de tests, puis entrer en production le 1er janvier, mais les clients ne seront facturés que début février » a précisé Ray Ozzie. Techniquement Azure sera hébergée dans trois paires de data center à Chicago et San Antonio pour l'Amérique du Nord, à Dublin et Amsterdam pour l'Europe, et à Singapour et Hong Kong pour l'Asie. Microsoft ne précise toutefois pas encore si les clients pourront régionaliser leurs applications. Les start-ups à l'honneur Pour présenter les premiers services développés avec Windows Azure, Microsoft a intelligemment mis en avant ses traditionnels détracteurs : les start-ups de la Silicon Valley et les officines du gouvernement fédéral américain. Automattic, baptisé à San Francisco, utilise, par exemple, Azure pour héberger certains composants de sa populaire plateforme de blogs Wordpress, a expliqué le fondateur de la société, Matt Mullenweg. Autre start-up de San Francisco, Seesmic, propose une version de son service pour Twitter reposant sur Azure et Silverlight. La NASA a publié des images 3D réalisées par le véhicule robot martien et proposées gratuitement au grand public, grâce au service de gestion des données « Dallas ». Le premier DSI fédéral américain, Vivek Kundra, a indiqué que le gouvernement envisage d'accélérer la publication de données à destination du grand public. Il a comparé le potentiel « explosif» de cette solution en termes de services et d'applications à la décision du gouvernement américain d'autoriser l'utilisation des données GPS pour un usage civil. Associer le cloud Azure et les infrastructures classiques Windows Pour démontrer que la plateforme Azure peut s'adapter à tous les besoins, Bob Muglia, responsable de l'activité Server and Tools chez Microsoft, a cité l'outil de recherche web maison, Bing, qui fonctionne sur plus de 100 000 serveurs. Bob Muglia a également annoncé le projet Sydney, qui permettra aux entreprises de connecter leurs propres serveurs à des services Azure. Enfin, Bob Muglia a présenté la bêta AppFabric, un serveur d'applications pour Windows Server et Azure. Avec AppFabric, les développeurs pourront déployer et gérer plus facilement des applications sur des serveurs locaux et sur des services Azure. Cet outil combine les fonctionnalités du serveur d'applications Dublin et la technologie de cache du programme Velocity. Les versions bêta de Sidney et d'AppFabric seront disponibles courant 2010. (...)

< Les 10 documents précédentsLes 10 documents suivants >