Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 1551 à 1560.

< Les 10 documents précédentsLes 10 documents suivants >


(07/01/2009 09:04:46)

AMD supprime plus de postes que prévu

Pour faire face à la crise, AMD a décidé de supprimer plus de postes que prévu. Le fabricant de microprocesseurs vient en effet d'indiquer à la Securities and Exchange Commission (SEC) qu'une centaine de postes allaient s'ajouter aux 500 coupes déjà annoncées en décembre 2008. Ces nouvelles suppressions auront pour conséquence d'alourdir les charges de restructuration du groupe de quelque 20 M$, dans le cadre d'une réorganisation dont le coût est estimé a 70 M$. En outre, AMD devrait annoncer des mesures drastiques supplémentaires au cours du premier semestre 2009. Au début du mois, le groupe avait lancé un avertissement relatif à ses résultats financiers pour son quatrième trimestre, et annoncé un chiffre d'affaires inférieur d'environ 25% aux résultats du troisième trimestre. (...)

(06/01/2009 17:16:01)

Bob Muglia admis dans le cercle des présidents de Microsoft

Après 20 ans de bons et loyaux services, Bob Muglia, 48 ans, a été admis dans le cercle très fermé des "présidents" de Microsoft. Au quotidien, il reste à la tête de la division "Serveurs et outils" qui regroupe Windows Server, Visual Studio, SQL Server, les outils de sécurité Forefront, BizTalk Server. Cette division a généré un CA de 13 Md$ sur l'exercice fiscal 2008 clos en juin dernier, en hausse de 16%, et un résultat opérationnel de 4,6 Md$ (+27%). La division de Bob Muglia a généré 22% du CA total du groupe et presque autant de son résultat opérationnel. Pour le nouveau président, c'est un retour en grâce. Il avait en effet été mis sur la touche à la suite de l'échec du projet de services en ligne Hailstrom en 2001. Son nouveau titre lui est décerné alors qu'il a en charge le nouveau projet de cloud computing maison, Azure Services. Bob est le quatrième président du groupe aux côtés de Robbie Bach (division périphérique et loisirs), de Stephen Elop (division business) et du Français Jean-Philippe Courtois, en charge de Microsoft International. (...)

(06/01/2009 17:07:33)

Deux chercheurs mettent à l'épreuve la sécurité du vPro d'Intel

Rafal Wotjczuk et Joanna Rutkowska, deux chercheurs polonais des laboratoires d'Invisible Things, viennent de trouver une méthode pour s'attaquer à la plateforme de virtualisation sur processeur vPro d'Intel. Ils affirment avoir écrit un programme qui compromet l'intégrité de logiciels chargés via la fonction Trusted Execution Technology (TXT) implantée dans vPro. Or, le rôle même de cet outil est de protéger les logiciels installés dans une machine virtuelle, par exemple, en empêchant qu'ils ne soient visibles ou accessibles par les autres applications présentes sur la machine physique. L'attaque se déroule en deux étapes. Elle s'appuie d'abord sur une vulnérabilité du logiciel système d'Intel que les deux chercheurs ne souhaitent pas dévoiler publiquement avant qu'elle soit corrigée. Ensuite, le processus exploite un défaut de conception au sein de TXT. Ce dernier semble le point le plus difficile à éviter : « il n'est pas évident de dire la façon dont Intel devrait régler le problème exploité dans la seconde partie de notre attaque, insiste Joanna Rutkowska. Ils affirment pouvoir y arriver par une mise à jour des spécifications de TXT. » Les deux chercheurs présenteront leur découverte plus en détail lors de la prochaine conférence Black Hat sur la sécurité qui aura lieu du 16 au 19 février prochain à Washington. D'ici là, ils collaborent avec Intel pour trouver une solution et se veulent rassurants. La combinaison TXT/vPro n'est commercialisée que depuis un an et peu de programmes sont pour l'instant compatibles. Donc, peu d'ordinateurs sont susceptibles d'être compromis par cette attaque. En revanche, elle crée un précédent fâcheux pour la réputation de vPro et pourrait inciter d'autres hackers, peut être plus attirés par le profit que par l'exploit intellectuel, à s'y intéresser. (...)

(02/01/2009 16:01:29)

2008-2009 : bilan et perspectives

Netbooks qui relancent un marché de la micro morose, prise de conscience écologico-économique avec le Green IT, débuts du 'cloud' et affirmation du Saas, 2008 a encore été une année riche pour tous les décideurs du monde informatique. Une année pleine de conflits, aussi, au niveau économique (tarifs SAP, fusion-hésitation avortée entre Microsoft et Yahoo...) comme au niveau social, avec une avalanche de plans d'économies et de suppressions de postes. LeMondeInformatique.fr a fait le tri pour vous, et vous propose la synthèse de tout ce qu'il faut savoir pour aborder 2009 dans les meilleures conditions. Un dossier à imprimer et à conserver - avec tous nos voeux de bonheur et de réussite pour cette nouvelle année. (...)

(31/12/2008 10:56:20)

Bilan 2008 : Le cloud prend forme dans la plus grande confusion

Si Dell a tenté de s'accaparer l'idée sans complexe en déposant un brevet sur le terme 'cloud', tous les acteurs de l'IT sans exception ont adopté le concept cette année. Le résultat est plutôt en contradiction avec l'intention : nous sommes dans le règne de la plus totale confusion, savamment entretenue par les fournisseurs. Le cloud computing, assorti de son inséparable acolyte le Saas (Software as a service, service applicatif en ligne), est sensé offrir aux entreprises des services informatiques complets et sécurisés à la demande. Autant de services qui seront donc installés sur des infrastructures distantes, hors l'entreprise, voire distribuées. Il ne s'agit pas seulement, comme on le laisse souvent entendre, d'héberger les applications et les données de l'entreprise à distance, mais bel et bien de rebâtir son système d'information en mode réparti entre ses propres sites et le 'nuage' (cloud). En 2008, constructeurs de serveurs, offreurs de stockage, éditeurs d'OS, éditeurs d'hyperviseurs, s'y sont tous mis. Bien sûr, il y eut Google, Amazon et Microsoft. Ces deux-là se sont illustrés le même jour d'octobre. Amazon a alors sorti son EC2 de sa phase bêta et Microsoft a enfin levé le voile sur le très attendu Azure. Mais les IBM, Sun, HP, Dell, Intel, EMC, VMware, Citrix ou Yahoo s'en sont aussi donné à coeur joie. Chacun avec sa propre définition. C'est pour cette raison, entre autres, que les dernières études de cabinets d'analystes préconisent la prudence vis à vis de tels environnements. Dans l'intérêt des entreprises utilisatrices, mais aussi celui des fournisseurs, 2009 devra être l'année de la clarification du concept de cloud. Le cloud ou le retour des environnements propriétaires Mais les DSI pourraient bien passer outre les conseils de prudence. Crise oblige. A priori, louer son infrastructure et ses applications apparaît moins cher que d'acquérir le tout. D'autant qu'avec le cloud, on peut commencer petit, et faire évoluer son 'SI dans les nuages' en fonction de ses besoins. Reste que pour connaître le coût total véritable d'un environnement de cloud, il faudra attendre que les premières entreprises aient essuyé les plâtres. Même si cela ne concerne qu'une partie du SI, pour migrer d'une bonne vieille installation en client-serveur vers un modèle de type cloud, il faudra repenser son système d'information, migrer ses applications, former les développeurs et les mainteneurs, etc. Et que dire de la nouvelle dépendance à un fournisseur qui se profile à l'horizon ? Les nuages pourraient bel et bien rappeler les années bleues des systèmes propriétaires. Et ce, même si les premiers partenariats se sont noués cette année (entre Salesforce et Google, par exemple). Aujourd'hui, difficile de dire combien coûtera, en temps et en argent, le passage d'un système d'information depuis l'EC2 d'Amazon vers l'Azure de Microsoft, par exemple. A lire sur le sujet : - Le 22 décembre : Ovum regarde le cloud computing avec circonspection - Le 12 décembre : Microsoft pense que la crise financière dopera son cloud Azure - Le 12 décembre : Le cloud d'Amazon EC2 arrive en Europe - Le 8 décembre : Salesforce interface son Force.com avec l'App Engine de Google - Le 19 novembre : Capgemini utilise le 'cloud' d'Amazon pour développer des applications - Le 19 novembre : Avec Decho, EMC prépare un nuage de stockage pour particuliers et PME - Le 18 novembre : Adobe Max : CoCoMo rappelle la stratégie S+S de Microsoft - Le 17 novembre : Exchange et SharePoint officiellement utilisables en ligne - Le 14 novembre : Le Gartner prédit l'émergence de clouds privés chez les grands comptes - Le 13 novembre : EMC recouvre la planète d'un immense nuage de données - Le 4 novembre : Dreamforce : Salesforce s'accroche à Amazon et Facebook - Le 30 octobre : PDC 2008 : Ray Ozzie, architecte en chef de Microsoft, donne sa vision d'Azure - Le 27 octobre : PDC 2008 : Microsoft dévoile Azure, son offre de 'cloud computing' - Le 27 octobre : Amazon EC2 sort de sa phase bêta et héberge WS Server 2003 - Le 15 octobre : Google et le Cigref partenaires pour étudier le Saas et le 'cloud computing' - Le 8 octobre : IBM ouvre ses services collaboratifs et un réseau social d'entreprise en mode cloud - Le 6 octobre : Premier Oracle OpenWorld après le rachat de BEA : Oracle accoste le 'cloud' d'Amazon - Le 26 septembre : Steve Ballmer se donne 5 ans pour concurrencer Google - Le 18 septembre : Citrix place la V5 de XenServer au coeur de son cloud - Le 16 septembre : VMware propose un OS pour les datacenters - Le 18 août : Dell n'a pas réussi à déposer la marque 'cloud computing' - Le 8 août : SQL Server 2008 paré au téléchargement - Le 30 juillet : HP, Intel et Yahoo collaborent autour du cloud computing - Le 8 juillet : Le Gartner identifie sept risques dans le 'cloud computing' - Le 25 juin : Allié à Google, Salesforce.com affirme disposer d'une plateforme en ligne complète - Le 18 juin : Red Hat rend JBoss disponible sur Amazon EC2 - Le 2 mai : IBM et Google font cloud computing commun - Le 14 avril : Les Google Apps à l'assaut du million d'utilisateurs de Salesforce - Le 20 mars : IBM ouvre son premier centre 'cloud computing' européen à Dublin - Le 10 mars : Le 'cloud computing' paré pour l'entreprise d'ici un an ou deux, estime Forrester (...)

(30/12/2008 11:51:50)

Quarante pages de conseils Microsoft pour un SI durable

La dernière édition de The Architecture Journal, publication éditée par Microsoft, est entièrement consacrée au Green IT. Ou, plus exactement, aux systèmes d'information durables et compatibles avec les bonnes pratiques en matière de préservation de l'environnement et de réduction des émissions de CO2. Comme l'écrit le rédacteur en chef dans son édito, « alors que l'informatique devient omniprésente, que la consommation d'énergie due à l'informatique grimpe, [...] que dans le même temps les coûts de l'énergie augmentent - tant à cause des réglementations que de la rareté des stocks d'énergies naturelles qui vont en s'épuisant - les dirigeants IT doivent se focaliser sur l'efficacité énergétique et le coût total d'exploitation, particulièrement dans un contexte de crise financière mondiale ». Le numéro 18 de ce trimestriel, disponible gratuitement en PDF, explore donc en une quarantaine de pages tout ce qui contribue à une architecture de SI éco-compatible, des techniques de climatisation des datacenters à la conception des applications, en passant par la consolidation et la virtualisation. Des bonnes pratiques de gouvernance... aux références aux produits maison Le premier chapitre, consacré à la conception d'un système d'information durable d'un point de vue environnemental, est écrit par Lewis Curtis, architecte principal chez Microsoft. Il pose les bases d'une réflexion d'ordre général pour quiconque souhaite concilier des impératifs écologiques et économiques avec les impératifs de performance attendus d'un système d'information. A ce titre, son analyse n'a rien à envier à celle d'un cabinet d'études qui la vendrait plusieurs milliers de dollars. En revanche, les réponses de Lewis Curtis sont bien évidemment orientées, puisqu'elles impliquent les produits qu'il représente. Au lecteur de conserver les réponses architecturales et d'appliquer ce modèle de réflexion avec ses propres références ; en matière de gouvernance, les bonnes pratiques ne dépendent pas d'un éditeur ou d'une technologie. Le deuxième chapitre rappelle quelques évidences en ce qui concerne le déploiement d'applications. Les auteurs expliquent ainsi qu'une application mal conçue - qui exige un serveur à elle seule, ou n'utilise qu'un coeur d'un processeur multicoeur - a un impact négatif sur la consommation énergétique. De même, il ne faut pas, indique l'article, omettre de recourir aux modes d'économies d'énergie lorsqu'une application, un disque ou un processeur est inactif, ou oublier d'alléger les bases de données de production en recourant à des systèmes d'archivage. A l'inverse, le fait de consolider des applications, ou mieux de recourir à la virtualisation conduit à des gains importants. L'étape ultime étant le 'cloud computing'. Dans tous les cas, les auteurs donnent des critères à observer et des métriques pour évaluer l'impact en matière de réduction de la consommation d'énergie (et, partant, de la facture d'électricité). Les composants applicatifs et architectures distribuées pour un impact minimal sur l'environnement [[page]] Le troisième chapitre s'attaque aux architectures applicatives. Fini le temps où on pouvait se permettre de dimensionner une solution en prenant comme critère de base son niveau de pic de charge plus 20 à 50%, histoire d'être tranquille. L'article donne donc moult conseils pour optimiser les applications, l'idée étant qu'elles aient un impact minimal en termes de consommation de ressources. Cela passe par le recours à des composants applicatifs, à des architectures orientées services (SOA), de l'instrumentation et de la supervision, de la virtualisation, de l'équilibrage de charges...Là encore, et d'ailleurs les auteurs prennent soin de le préciser, « si la taxonomie peut apparaître spécifique à Microsoft et à Windows, cela fonctionne aussi bien avec d'autres OS et applications ». Un chapitre entier est consacré à la façon dont on peut calculer la consommation d'énergie d'un serveur, d'un disque dur, d'une application, d'une base de données, etc. Avec cette abaque, il devient beaucoup plus simple de traduire en termes monétaires les gains apportés par telle ou telle bonne pratique. Les auteurs de ce chapitre en profitent pour rappeler qu'un certain nombre de services sont totalement inutiles pour faire tourner une machine virtuelle. Cela tombe bien, Windows Server 2008 ayant appris d'autres OS et proposant un mode d'installation minimal. Le DC Genome, ou comment évaluer la climatisation d'un datacenter avec des capteurs sans fil Plus surprenant, l'avant dernier chapitre détaille la mise en oeuvre de capteurs sans-fil dans le datacenter de Microsoft conçu à cet effet, le DC Genome. Plutôt que d'ajouter de la complexité avec des composants matériels ajoutés aux différents éléments du datacenter, Microsoft a conçu un réseau d'environ 700 senseurs ('genomotes') permettant de mesurer la température et l'humidité partout dans la salle, afin d'ajuster au mieux les paramètres du système de climatisation en quasi-temps réel. Les genomotes eux-mêmes communiquent en IEEE 802.15.4, car, indique Microsoft, il s'agit d'un réseau radio moins gourmand en énergie et en ressources processeur que le WiFi. Le dernier chapitre, pour le coup, ne s'applique qu'aux technologies Microsoft, puisqu'il traite de la consolidation de bases SQL Server telle qu'elle a été pratiquée chez Microsoft, pour son propre système d'information. Et cela pourrait intéresser des clients grands comptes de l'éditeur. En effet, comme n'importe quelle entreprise, Microsoft a dû affronter un tableau peu reluisant : 100 000 bases de données réparties dans 5 000 instances de SQL Server, la plupart sur des serveurs dédiés, chacun présentant un taux d'utilisation moyen des ressources processeur en deçà de 10%. (...)

(24/12/2008 16:16:03)

Bilan 2008 : Le datacenter au coeur des économies d'énergie

2008 a sans nul doute été l'année de l'explosion du Green IT. Mais pour ses débuts, le concept a surtout été lu par l'industrie informatique sous l'angle de la réduction de la consommation énergétique. Et en toute logique, les datacenters se sont trouvés dans la ligne de mire. Ces centres serveurs ont la mauvaise habitude d'avaler les kW en mode glouton. Mais ce n'est pas tout. Ils émettent aussi de la chaleur en grande quantité. Il faut donc les refroidir pour qu'ils ne tombent pas en panne, avec des systèmes qui eux-mêmes consomment beaucoup d'électricité. Dans un datacenter, l'informatique n'est responsable que d'un tiers de la consommation électrique ! Pour le reste, il faut blâmer la climatisation et... l'alimentation électrique. Il est urgent d'agir. Et pour une fois, la crise tombe plutôt bien. Les économies d'énergie riment en effet avec des économies sonnantes et trébuchantes, incitant les industriels et les utilisateurs à se mobiliser. Tout au long de l'année, analystes et fournisseurs se sont battus pour dispenser des conseils afin d'améliorer la performance énergétique des datacenters. Les plus pragmatiques, comme Bull et APC, ont expliqué comment réorganiser les salles serveurs afin de les optimiser : définition d'allées de confinement, climatisation près des points chauds, etc. VMware et les autres adeptes de la virtualisation ont rappelé qu'il est possible d'augmenter l'efficacité des serveurs souvent exploités à tout juste 10% de leur puissance. En diminuant leur nombre, on réduit mécaniquement la consommation électrique. Un datacenter sur un bateau et un autre sous une tente D'autres acteurs du marché ont fait fonctionner leur imagination sans crainte de passer pour illuminés : ainsi, Google a-t-il réfléchi à installer un datacenter sur des bateaux alimentés par l'énergie des vagues, quand Microsoft a testé le rafraîchissement à l'air libre de ses machines, sous une tente exposée à tous vents. Plus sérieusement, du côté de la dissipation de chaleur, IBM a utilisé les calories rejetées par un de ses centres situé en Suisse pour chauffer la piscine municipale. Système qu'il décline aujourd'hui pour tout type de bâtiment. Le géant a aussi installé un datacenter 'vert' témoin à Montpellier pour ses clients. L'heure est grave, au point que même les gouvernements se sentent concernés. Le prix Nobel de physique Steven Chu, chargé des questions relatives à l'énergie par Barack Obama, fait partie des plus concernés par le sujet. Pour le futur centre de calcul du laboratoire Lawrence Berkeley National qu'il dirigeait, il a ainsi opté pour des processeurs spécialisés particulièrement économes. Et hier, le gouvernement français a lancé un groupe de réflexion sur le green IT dans lequel la réduction de la consommation énergétique des datacenters est en bonne place. L'optimisation énergétique des datacenters est en route. Et c'est tant mieux. Car ils sont de plus en plus puissants. Et nombre d'entre eux servent à mieux comprendre le réchauffement climatique. A lire sur le sujet : - le 23 décembre : Le gouvernement lance un groupe de réflexion sur le Green IT - Le 17 décembre : Un adepte du green IT en charge de l'énergie et de l'environnement pour Obama - Le 26 novembre : IBM améliore l'outil de gestion de l'énergie de ses serveurs - Le 19 novembre : Onze conseils de Gartner pour optimiser l'efficacité énergétique des datacenters - Le 10 novembre : Poussés par la réglementation, les clients japonais d'Accenture prisent le green IT - le 5 novembre : HP commercialise des outils pour limiter la consommation de ses serveurs - Le 24 septembre : Les datacenters refroidissent à l'air libre - le 17 septembre : Le datacenter est dans un bateau - Le 19 aout : IDF 2008 : le "Green IT" tente de faire débat - Le 30 juin : Microsoft croit aux datacenters en container - Le 3 juin : Bull et APC s'associent sur des audits complets de datacenters - Le 13 mai : AMD réduit la consommation de ses quadri-coeurs - Le 2 mai : Les datacenters véritables gâchis énergétiques - Le 28 avril : HDS se lance à son tour dans la course au datacenter vert - Le 3 avril : Une piscine publique chauffée par des serveurs IBM - Le 5 février : Datacenter : l'utilisation du courant continu permet une économie de 40% (...)

< Les 10 documents précédentsLes 10 documents suivants >