Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 1491 à 1500.
| < Les 10 documents précédents | Les 10 documents suivants > |
(16/02/2009 17:32:03)
L'université de Berkeley donne sa vision du cloud
Onze chercheurs, membres de l'université de Berkeley (Californie), ont publié un article de fond sur le cloud computing. Membres du RAD Lab (Reliable Adaptive Distributed Systems Laboratory, subventionné par des sociétés comme Google, Microsoft et Sun), ce sont de fervents adeptes de cette évolution inexorable de la structure informatique de notre société de l'information. Ils ont établi une liste de onze obstacles à surmonter pour parvenir à une mutation sans encombre. Ils conseillent aux utilisateurs de ne pas avoir un, mais plusieurs fournisseurs. Ils enjoignent d'ailleurs ces derniers à s'accorder sur des API communes. Ils insistent aussi sur l'impérieuse nécessité de crypter les données. Leurs conseils abondent dans le sens de l'OCC (Open Cloud Consortium), une association née elle aussi dans le monde universitaire américain qui prône l'ouverture des approches en cloud. (...)
(16/02/2009 17:28:07)IBM et Amazon unis dans le cloud
IBM rallie l'EC2 (Elastic Could Computing) d'Amazon. D'ici quelques mois, bases de données et middlewares de Big Blue seront proposés sur la plateforme la plus sophistiquée d'AWS (Amazon Web Services), acronyme sous lequel sont regroupées les offres d'infrastructures en ligne du libraire numérique. DB2, Informix Dynamic Server, le portail et sMash de WebSphere ainsi que Lotus Web Content Management, viennent rejoindre des logiciels d'Oracle (11g et Fusion), de Sun (OpenSolaris et MySQL), de Red Hat (JBoss), de Microsoft (Windows Server et SQL Server) ainsi que les logiciels en ligne de SalesForce. IBM indique toutefois qu'il compte utiliser son mode de facturation fondé sur des PVU (Process Value Unit). Comme le montre ce schéma sommaire, l'échelle commencera à 50 PVU (l'équivalent d'un serveur X64) pour atteindre 400 PVU. Les clients d'IBM doivent savoir que les licences logicielles dont ils disposent seront valables sur EC2. L'annonce de ce partenariat avec IBM finit de crédibiliser Amazon dans le monde du Cloud. Son offre, une des plus élaborées et des plus abouties, comprend aussi des prestations de stockage (S3 pour Simple Storage Service) et de livraison de contenus (CDS pour Content Delivery Service). Pour IBM, cet accord vient compléter Blue Cloud, sa propre approche d'hébergement d'informatique en cloud qu'il a lancée officiellement la semaine dernière. (...)
(13/02/2009 18:37:17)Annuels Bull : Le groupe français en progression reste prudent en 2009
Le groupe français Bull a présenté des résultats en progression par rapport à l'an dernier. Le chiffre d'affaires de l'entreprise a progressé de 1,4% pour atteindre 1,13 Md€ alors que le bénéfice de 5,6 M€ a augmenté de 21,7%. Didier Lamouche, PDG de Bull, rappelle dans son communiqué que le groupe a « adopté une segmentation qui reflète mieux [ses] activités ». Ainsi, les services et les solutions ont crû de 14,7% sur l'année, et le matériel et les systèmes de 5,6%. La maintenance a, en revanche, reculé de 6,8%. Didier Lamouche a précisé que les services représentaient désormais 44% du CA, que la moitié des clients provenaient des secteurs publics et télécoms et que près de 20% du CA était réalisé dans les pays émergents. Il a également rappelé que l'entreprise s'était défaite d'activités non stratégiques, comme Medicaid aux Etats-Unis, pour se renforcer sur des segments jugés plus porteurs comme le calcul haute performance. 2008 a été émaillée de plusieurs succès dans le domaine comme la commande passée par le Genci et un contrat renouvelé avec le CEA. Comme la plupart des acteurs du marché face à la crise, Bull reste prudent sur ses objectifs 2009. « Nous poursuivrons les réductions de coûts adéquates et accélérerons notre travail de transformation autour de nos axes stratégiques. » (...)
(13/02/2009 18:01:19)Techdays'09 : Azure, Seven, Multitouch, les technologies de Microsoft mises à nu
Troisième édition et un succès qui ne se dément pas pour la grand-messe française de Microsoft, où développeurs, administrateurs systèmes et décideurs IT se sont pressés pour approfondir leurs connaissances et obtenir des informations sur les futurs produits. Windows Azure, Windows Seven, Visual Studio 2010 étaient ainsi au coeur des interrogations, les 10, 11 et 12 février derniers au Palais des Congrès de Paris. LeMondeInformatique.fr a assisté aux trois jours de l'événement ; notre dossier vous propose un compte-rendu pratique et sans langue de bois. (...)
(12/02/2009 16:28:30)Techdays'09 : Microsoft explique Azure en détail
C'est l'inconvénient avec les concepts à la mode : lorsqu'une technologie s'en réclame, tout ou presque peut être dit pour la définir, les notions de 'cloud' et de 'Saas' (Software as a service) se mélangeant allègrement. C'est ce qui est arrivé avec Azure, le « Windows dans les nuages » de Microsoft, dévoilé en octobre dernier et actuellement dans sa phase 'preview'. Si bien que les développeurs, mais aussi des décideurs IT et des administrateurs systèmes se sont pressés dans les sessions consacrées à Azure lors des Techdays, 3 jours de conférences gratuites organisées par Microsoft France, et auxquelles se sont inscrites près de 16 000 personnes, indique l'éditeur. L'une des sessions sur Azure, animée par deux architectes de Microsoft France, Stève Sfartz et Régis Mauger, reprenait ainsi tranquillement les fondamentaux de ce qu'est, ou n'est pas, Azure. Un distinguo à opérer entre les services Azure et la plateforme Azure D'abord, il faut distinguer la plateforme Azure des services de la plateforme Azure. La première est « un système d'exploitation dans le nuage », qu'il convient de voir comme « une troisième plateforme de déploiement, après la plateforme client (desktop/mobile) et la plateforme serveur ». Stève Sfartz a d'ailleurs insisté sur cette continuité: « C'est un continuum, vous restez dans un environnement de développement connu. » A côté de ce Windows Azure - l'offre de 'cloud computing en tant que telle -, figurent des services complémentaires, apportés des applicatifs Microsoft hébergés : la manipulation de données avec des services SQL Server, par exemple, ou le transactionnel avec des services Biztalk. Le fait d'avoir proposé en même temps ces services applicatifs en ligne - qui s'apparentent au Saas - a largement contribué à la confusion initiale. Le déploiement dans Azure repose sur le téléchargement de deux fichiers La plateforme Azure - sans ces services - est donc un environnement de déploiement d'applications créées avec Visual Studio, l'atelier de développement de Microsoft, dûment secondé du SDK (kit de développement) Azure. Une fois que le développeur a créé son compte dans Azure, la publication des programmes dans ce Windows hébergé est simplissime : l'outil crée deux fichiers, un package de l'application et un fichier de configuration XML, qu'il suffit de télécharger depuis la page d'accueil de son compte Azure. Nul besoin de se préoccuper, lors de la création du programme, du fait que cela tournera sur une machine virtuelle, ou des capacités de montée en charge. « La gestion des ressources est transparente pour vous », explique Régis Mauger. Tout est géré par ce que Microsoft appelle « la fabrique ». C'est elle qui alloue les capacités (en fonction du nombre d'instances déterminé dans le fichier de configuration), gère l'équilibrage de charge, la récupération en cas d'incident, la réplication de données... « Votre code sera capable de supporter la charge, quelle qu'elle soit » [[page]] La version de prévisualisation d'Azure permet aujourd'hui de monter jusqu'à deux instances ; dans la version finale, l'éditeur du logiciel déterminera librement le nombre d'instances dont il pensera avoir besoin - sachant que cela pourra évoluer à la hausse ou à la baisse. « Votre code sera capable de supporter la charge, quelle qu'elle soit », assure-t-on chez Microsoft. La seule contrainte sera la tarification. Celle-ci n'est pas encore finalisée, mais on sait déjà que comme toute offre de cloud, le coût grimpera en fonction des ressources utilisées. D'où l'intérêt, soulignent les architectes, de tout de même bien optimiser le code, pour qu'il consomme le moins de ressources possibles. L'application tournant dans Azure dispose de sa propre URL (avec une terminaison en cloudapp.net, qui peut être masquée à l'aide d'une redirection), et peut communiquer avec d'autres services accessibles en ligne, grâce aux protocoles Soap ou Rest. Des tables, des queues et des Blobs dans le « cloud storage » d'Azure Les données que l'application doit manipuler sont stockées dans le « cloud storage » d'Azure, qui peut prendre trois formes : des tables, des files d'attente de messages et des blobs (Binary large objects, containers pour stocker de gros fichiers binaires, comme des photos ou des vidéos). Chacun de ces formats dispose d'une URL distincte, permettant au développeur d'y accéder librement. Quelques outils, dont un est fourni en guise d'exemple dans le SDK d'Azure, donnent la possibilité de manipuler plus facilement ces données (dont le total est limité à 50 Go dans la 'preview'). Des traitements sur ces données peuvent être effectués de façon asynchrone, dans le nuage, « l'équivalent d'un traitement batch », précise Stève Sfartz. La grosse difficulté aujourd'hui concerne le débogage des applications. Certes, Azure dispose d'un mode 'préproduction', pour y faire tourner une application avant de la mettre en production, mais on ne peut y déboguer un programme. Il faut donc faire le maximum de tests en local, sachant que le SDK reproduit en local la « fabrique ». Dans ce cas, les données sont stockées dans une base SQL Express, mais il est possible de les charger dans Azure, et d'utiliser un outil tiers comme Fiddler pour examiner les flux, afin d'identifier les points de l'application posant problème. Autre limitation imposée aux développeurs : dans la mesure où Azure s'appuie sur la version 7 du serveur Web IIS de Microsoft, le travail de conception doit s'effectuer sur Vista ou Seven, XP n'étant pas compatible avec IIS 7. Au final, les choses sont donc plutôt claires, mais cela pourrait se complexifier à l'avenir, avec le support de langages natifs, et la possibilité de déployer dans Azure ses propres machines virtuelles. (...)
(12/02/2009 11:28:01)Intel investit 7 Md$ sur deux ans aux Etats-Unis pour fondre en 32 nm
Paul Otellini, le pdg d'Intel a annoncé en grande pompe que son groupe allait investir 7 milliards de dollars sur deux ans pour faire évoluer ses usines américaines vers la technologie 32 nanomètres. Les trois sites concernés se trouvent en Arizona, en Oregon et au Nouveau-Mexique. La publicité autour de cet investissement intervient alors qu'Intel se dit en avance sur son plan de charge pour migrer de la technologie de gravure en 45 nm à 32 nm. Le premier processeur 32 nm à être produit devrait être le Westmere, un Nehalem (Core i7) pour machines individuelles. Il est attendu pour la fin de l'année. Le passage au 32 nm est une étape importante pour le numéro un mondial des semiconducteurs. Toutefois, rapporté aux 10 à 11 Md$ qu'Intel prévoit d'investir sur le seul exercice en cours, l'investissement annoncé sur le 32 nm ne représente qu'un peu plus d'un tiers sur un an. Sachant qu'Intel communique sur la somme de 3 Md$ pour construire une usine dernier cri, le groupe devrait aller bien au-delà pour faire évoluer l'ensemble de son outil de production. Intel concentre aux Etats-Unis ses unités à forte valeur ajoutée Il y a deux semaines, Intel annonçait la fermeture de cinq usines assortie d'un plan de licenciements estimé entre 5 000 et 6 000 personnes. Le groupe vient aussi de fermer une usine dans la région de Shanghai (2 000 salariés) en vue de la déplacer dans une autre région chinoise moins "coûteuse". A l'exception d'un site en Irlande et d'un autre en Israël, Intel concentre ses unités à forte valeur ajoutée aux Etats-Unis. Sa demi-douzaine de sites d'assemblage et de tests est installée dans des pays à bas salaire. Le groupe compte environ 84 000 salariés, dont 45 000 aux Etats-Unis. Un salarié sur deux est directement impliqué dans la production de composants. 75% de la capacité de production d'Intel est située sur son sol national où est aussi investi 75% de son budget de R&D. Il réalise 75% de son CA en dehors des Etats-Unis. (...)
(11/02/2009 14:44:35)Les premiers Core i7 d'Intel pour serveur arriveront en mars
Intel prévoit de livrer d'ici la fin mars le Nehalem EP, son premier processeur Core i7 pour serveur biprocesseur, et d'ici la fin de l'année, le Nehalem XP pour serveur quadriprocesseur. Le quadricoeur Nehalem EP (pour Efficient Platform) sera commercialisé dans la ligne Xeon 5000 pour des machines biprocesseurs dotées du chipset Tylersburg. Ce nouveau jeu de composants, requis par des processeurs à l'architecture entièrement revue, a été intégré par les constructeurs depuis plusieurs mois. Mais seront-ils enclins à consentir un investissement technique et marketing d'envergure dans le contexte de crise actuelle ? Baptisée XP, la deuxième génération de processeurs Nehalem s'adresse à des serveurs quadriprocesseurs. Riches de 2,3 milliards de transistors gravés en 45 nm, ces Nehalem XP renfermeront huit coeurs capables de traiter chacun deux threads. Ainsi, un serveur quadriprocesseur acceuillera un total de 32 coeurs exécutant jusqu'à 64 threads, servis par une mémoire cache de partagée de niveau 3 de 24 Mo. Intel prévoit de livrer les premiers XP vers la fin de l'année. La puissance des systèmes équipés de quatre Nehalem XP devrait permettre au fondeur de rogner sur l'entrée de gamme des serveurs Unix à base de processeurs Power, Sparc et ... Itanium. (...)
(11/02/2009 12:17:14)Les ventes de processeurs vont reculer en 2009
Après un quatrième trimestre 2008 dans le rouge, les ventes mondiales de microprocesseurs pour PC devraient continuer à décroître en 2009. C'est la conclusion d'une étude conduite par le cabinet IDC, selon lequel les livraisons de puces ont reculé de 11,4% sur un an au cours des trois derniers mois de 2008. Une baisse qui devrait atteindre 15% pour l'ensemble de 2009. Sur l'ensemble de l'année 2008, le total des ventes enregistre malgré tout une progression de 10% en volume, mais de seulement 0,9% en valeur. Ces résultats positifs n'éclipsent cependant pas le catastrophique quatrième trimestre, au cours duquel IDC a observé « le pire déclin » depuis la mise en place de son observatoire des processeurs, en 1996. Sans surprise, la crise planétaire est à l'origine de ces contre-performances. La demande de PC s'est en effet tarie, une tendance observée par IDC au quatrième trimestre 2008, où les ventes mondiales d'ordinateurs ont reculé de 0,4% sur un an. « Après des signes d'affaiblissement en septembre, le marché s'est effondré en octobre et novembre », note le cabinet d'études. Le succès des netbooks - 10 millions d'unités écoulées l'année dernière - n'aura pas été suffisant pour contrebalancer le déclin observé sur les segments des laptops et desktops traditionnels. On mesure l'importance des netbooks à la lumière d'un indice communiqué par IDC : sans ces mini-PC, les ventes de processeurs auraient reculé de 21,7% en volume au cours du dernier trimestre 2008. Au palmarès des constructeurs, Intel reste loin devant ses concurrents et voit même sa part de marché augmenter en 2008. Le fondeur a vendu 80,3% des processeurs écoulés l'an passé (+2,9%), contre 19,2% pour AMD (-3,1%) et 0,4% pour VIA. (...)
(11/02/2009 09:08:10)Des Phenom II à trois coeurs chez AMD
AMD annonce cinq nouveaux processeurs Phenom II gravés en 45 nm. Trois d'entre eux, les Phenom II X4, sont des quadricoeurs. Ils s'enfichent dans un socket AM3 et supportent les mémoires DDR2 et DDR3. Ces processeurs peuvent aussi s'installer sur un socket AM2+ avec de la mémoire DDR2. Plus étonnant, les deux autres Phenom II annoncés, les Phenom II X3, sont des tricoeurs. Leur connectique est aussi exhaustive que celle des Phenom IIX4. Malgré, ou à cause de sa situation financière critique, AMD fait feu de tout bois. Ainsi, ses tricoeurs lui permettent d'affirmer damer le pion des bicoeurs d'Intel et afficher un excellent rapport prix/performances. De même, ces puces laissent le choix entre utiliser de la mémoire DDR2, relativement peu coûteuse, ou de la DDR3, aussi performante que chère, s'inscrit dans un opportunisme de bon aloi en ces temps de crise. (...)
| < Les 10 documents précédents | Les 10 documents suivants > |