Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 6611 à 6620.

< Les 10 documents précédentsLes 10 documents suivants >


(21/09/2010 11:59:15)

Yahoo ouvre un datacenter plus green aux chutes du Niagara

Situé près des chutes du Niagaria, le datacenter de Yahoo est presque entièrement refroidi par l'air extérieur circulant à travers ses longues salles pour maintenir le matériel au frais. Cela signifie que l'installation n'a pas besoin de système de refroidissement pour alimenter des climatiseurs en eau froide, en général le poste le plus énergivore des centres traditionnels. La salle informatique sera principalement alimentée par des centrales hydroélectriques du New York Power Authority, le fournisseur d'électricité public local. Le centre sera inauguré aujourd'hui par Carol Bartz, PDG de Yahoo, en présence du gouverneur de New York, David Patterson, et du sénateur américain Charles Schumer.

Ce datacenter - le plus respectueux de l'environnement construit par Yahoo - se compose de trois salles reliées à un centre d'opérations, plus deux salles encore en cours de construction. Les bâtiments, longs et étroits, ont été orientés dans le sens du vent de manière à permettre à l'air de circuler facilement. Leur forme de poulailler géant leur a valu le nom de Yahoo Computing Coop. Leur taille témoigne aussi de l'importance qu'ont pris les centres de calculs au cours des dernières années. Souhaitant encourager de meilleures pratiques énergétiques dans les datacenters, lesquels absorbent une proportion croissante de l'énergie aux États-Unis - leur consommation représentait 1,5 % il y a quatre ans et probablement plus depuis - le département américain de l'énergie a accordé une subvention de 9,9 millions de dollars à Yahoo pour financer une partie de l'installation. "Pendant les 60 dernières années, les datacenters n'ont pas beaucoup évolué, restant relativement chers et lents à construire. La transformation de ces centres en usines à données efficaces est un changement majeur," a déclaré Scott Noteboom, vice-président de Yahoo pour les opérations et l'ingénierie des datacenters.

Un PUE de 1,08

Yahoo ouvre, également dans l'état de New York, un centre d'opérations qui devrait générer 125 emplois à temps plein. Hormis son intention de limiter l'impact sur l'environnement, les motivations de Yahoo ne sont pas toutes généreuses. En installant un centre de calcul qui n'utilise que 10 % de sa puissance pour le refroidissement - comparativement aux 50% nécessaires pour certains autres centres - Yahoo peut réduire ses factures d'électricité de façon spectaculaire. L'entreprise se met également en concurrence avec Google et Microsoft qui ont fait de gros efforts pour mettre sur pied des centres plus efficaces. Yahoo a déclaré que son datacenter affichait un PUE (Power Usage Effectiveness) de 1,08, soit mieux que la moyenne nationale qui se situe aux environs de 1,9 PUE. Cet indicateur montre comment est répartie l'énergie totale consommée par un datacenter, celle directement dévolue à l'équipement informatique, et celle destinée à d'autres usages et en particulier au refroidissement. Un PUE de 2,0 signifie que la moitié de l'énergie alimente les installations informatiques, quand un PUE de 1,0 signifierait que c'est la totalité qui leur revient. L'architecture du centre de Yahoo ressemble à celle que Hewlett-Packard a commencé à produire récemment pour de gros clients. Yahoo a d'ailleurs fait une demande de brevet pour la conception, notamment pour la distribution de l'édifice et la façon dont l'air est réparti dans les salles. "La chasse aux brevets est très active en matière de conception et de construction de datacenters," a confirmé Scott Noteboom.

Une architecture plus rapide à construire

Des installations comme celles de HP et de Yahoo sont plus rapides à construire que les centres de calcul traditionnels : les éléments, fabriqués en usine, sont ensuite assemblés sur place. Yahoo prévoit d'ajouter à Lockport deux salles supplémentaires dans les six prochains mois. En temps normal, dans un centre traditionnel, il aurait fallu 12 à 18 mois pour réaliser cette extension," a déclaré Scott Noteboom. À terme, la superficie totale de l'édifice atteindra 36 000 mètres carrés, soit un espace pouvant accueillir 50 000 serveurs. "Le site pourrait éventuellement alimenter 100 000 serveurs avec des salles supplémentaires," a encore ajouté Scott Noteboom. Le centre gérera notamment les services Mail, Messenger et Flickr de Yahoo.

"Ce type de datacenter coûte moins cher à construire qu'un centre traditionnel," a déclaré Christina Page, directrice en stratégie énergétique chez Yahoo. "On pense en général que les installations vertes sont plus chères à construire, mais ce n'est toujours vrais," a-t-elle ajouté. Les serveurs situés à l'intérieur sont des produits "off the shelf" logés dans des racks standards, avec en plus l'expérience propre que Yahoo apporte en matière de conception de serveurs. Quand il fait est trop chaud pour que le refroidissement se fasse par l'air extérieur, le centre utilise un système de refroidissement par évaporation. "Nous pouvons utiliser l'air frais extérieur la grande majorité de l'année," a précisé Scott Noteboom. Yahoo n'a pas indiqué combien elle payait son énergie hydroélectrique, mais Christina Page a fait remarquer que les énergies renouvelables ne revenaient pas toujours plus chères que celles des centrales au charbon. La conception permet un contrôle étroit de la température et de la circulation de l'air à l'intérieur des installations, de la même manière qu'on le fait pour un datacenter en conteneur, mais à plus grande échelle. "Pour moi, le Yahoo Computing Coop est juste un container de plus grande taille," a déclaré Scott Noteboom.

Crédits photos : IDG NS

(...)

(20/09/2010 17:56:59)

Observatoire des projets : Le taux d'échec reste élevé faute de méthode

En clôture de la première Université d'Eté de Daylight, Fadi Gemayel, PDG de ce cabinet de conseil et de recherche, a présenté les résultats du premier baromètre annuel de l'« observatoire des projets en France à dominante SI ». L'objet de ce baromètre est de suivre les réussites et échecs de projets informatiques en les liant aux pratiques méthodologiques et managériales. Au delà des retours empiriques, il s'agit bien d'obtenir une connaissance scientifique du sujet.

Les premiers résultats de sont guère encourageants et les nombreux échecs semblent bien liés à une méthodologie défaillante dans les organisations. 16% des organisations ayant répondu au questionnaire admettent que la majorité des projets sont des échecs et seulement 30% que la majorité arrivent à l'heure. Les dépassements de délais sont importants mais, par contre, les dépassements de coûts sont déclarés comme rares.

Une première étude française

Cette étude est une première en France. Elle porte sur des entreprises de plus de 250 personnes issues d'un échantillon de 5000 firmes réparties de façon représentative en terme de taille et de secteur. Pour la réaliser, Daylight s'est associé à deux établissements d'enseignement supérieur et de recherche : l'ENSIIE (Ecole Nationale Supérieure d'Informatique pour l'Industrie et l'Entreprise) et l'IAE Lille (Institut d'Administration des Entreprises, université Lille I). Le Monde Informatique et CIO étaient également partenaires. Auparavant, il n'existait que des études d'origine américaine et dont le principal enseignement était qu'un tiers des projets étaient des échecs complets et la moitié dérivaient fortement en terme de délais, de budget ou des deux.

La première édition du baromètre annuel de l'« observatoire des projets en France à dominante SI » est bien sûr perfectible et, faute d'un recul suffisant, ses conclusions sont à prendre avec prudence, plus comme des tendances qualitatives. Les éditions successives, dans les années à venir, permettront d'affiner le propos.

Mais où sont les bonnes pratiques ?

La première tendance qui se dégage est catastrophique : si les référentiels de bonnes pratiques se multiplient, force est de constater que les entreprises n'appliquent que rarement leurs principes, même ceux de bon sens. Il en résulte un taux d'échec élevé. Pire, les entreprises sont incapables de tirer partie des échecs passés : non seulement il y a un très faible partage des connaissances en cours de projet mais, en plus, en fin de projet, il n'y a quasiment jamais de capitalisation de l'expérience acquise. De plus, le rôle du chef de projet n'est pas vu comme celui d'un véritable métier. Le chef de projet est tantôt vu comme un simple manager généraliste, tantôt comme un poste temporaire au sein d'une carrière. Il est vrai que l'autonomie de ceux-ci est souvent des plus limitées. Ils dirigent certes au quotidien des équipes mais ne maîtrise pas la composition de celles-ci, pas plus qu'il n'a de choix quant aux autres ressources dont il pourrait avoir besoin, notamment financières.

Moins de 10% des organisations disposent d'un SI collaboratif pour gérer un projet. Les projets sont déclenchés sur une vague étude d'opportunité. L'alignement stratégique -quand il existe- est mené quasiment exclusivement en mode top-down, sans aucune possibilité de retour formel de la base vers le sommet. Les référentiels de bonnes pratiques sont rarement utilisés. Il n'existe d'ailleurs pas de méthodologie de référence réelle (autrement qu'un document bureautique stocké dans un coin de l'intranet) dans plus des deux tiers des cas.

Des méthodologies à renforcer

Les développements sont souvent réalisés au fil de l'eau, avec des référentiels (cahier des charges...) peu ou pas formalisés. La contractualisation MOA/MOE est peu fréquente. « Sans vraie contractualisation, on ne peut pas réussir un projet » martèle pourtant Fadi Gémayel.
De même, la gestion de porte-feuilles de projets est très perfectible : les dépendances entre projets sont peu ou pas traités : les conflits de ressources vont être affrontés devant la hiérarchie qui va arbitrer en mode binaire, sans anticipation.

Quand une équipe de support aux projets existe, la structure est rarement permanente et son rôle consiste souvent à installer des outils de gestion de projets. Gestion des risques et gestion de la qualité sont soit absents soit très ponctuels. Leur intégration au processus du projet est exceptionnelle (moins de 10% des cas). Plaquées comme un projet parasite à côté du projet principal, leur utilité est des plus douteuses. La remontée des incidents est généralement déficiente et elle se limite à signaler que le client se plaint du produit livré.

Des projets vraiment stratégiques ?

Alors que la « gouvernance » est dans toutes les bouches depuis une dizaine d'années, que ce concept repose sur l'alignement stratégique du SI sur le business, on aurait pu croire que la qualification de « projet stratégique », donc prioritaire et intimement lié à l'avenir de l'organisation, serait un peu sérieuse.

Or, pour les répondants à l'enquête, un projet est stratégique soit parce que son budget dépasse un certain seuil (une évolution isofonctionnelle d'un parc machine peut donc être « stratégique ») soit parce que la direction générale l'a décidé sans aucunement justifier le qualificatif. Le prochain baromètre sera réalisé au printemps 2011. On peut rêver à une amélioration de la gestion des projets d'ici là.
(...)

(20/09/2010 16:36:39)

IBM rachète Netezza pour 1,7 milliard de dollars

Qu'on les stocke, les compresse, les sécurise, les analyse, les données sont au coeur de la bataille capitalistique que se livrent les grands groupes informatiques. Aujourd'hui, IBM a annoncé l'acquisition de Netezza, en proposant 27 dollars par action, soit une valorisation à 1,7 milliard de dollars. La société, basée à Malborough, propose des appliances pour datawarehouse capable de traiter des capacités importantes de données et gérer de manière plus rapide des requêtes.  Netezza comprend 500 salariés à travers le monde. Les différentes solutions vont être intégrées à l'activité  Business Analytics and Optimization Consulting d'IBM. Big Blue précise que depuis 4 ans, il a investi dans 23 sociétés uniquement dans ce domaine, pour un montant de 12 milliards de dollars.

Netezza avait été citée par une étude comme une potentielle cible de rachat. Plusieurs firmes pouvaient prétendre à cette opération pour étendre leur portefeuille dans le domaine de l'analyse et de l'entreposage de données. Les yeux se tournent maintenant vers Teradata, une future proie.

(...)

(20/09/2010 16:03:09)

Temenos-Viveo au Tribunal: le rachat passe mal

Le 16 septembre s'est tenue au Palais de justice de Paris l'audience du Tribunal de Grande Instance pour examiner le recours en référé engagé par les représentants des salariés de l'éditeur de logiciels bancaire Viveo, suite au rachat de l'entreprise par son concurrent Suisse Temenos. Le litige portait sur l'annonce d'un projet de restructuration visant à supprimer plus d'un tiers des emplois de Viveo France (soit 64 postes sur un total de 180 salariés).

Des communiqués trompeurs, selon la CGT

Deux semaines avant l'audience, la direction de l'éditeur tentait de justifier son plan de restructuration « dans un souci de transparence » Dans un communiqué, elle avait indiqué que l'entreprise avait dû réorganiser ses activités « en vue d'en rétablir les fondamentaux économiques tout en limitant les impacts sociaux ». Or, selon la CGT, la direction aurait tenté, durant plus de sept mois, de cacher l'existence du conflit. Dans un tract, le syndicat n'hésite pas à qualifier les communiqués de trompeurs, ceux-ci indiquant que l'intégration de Viveo était sur la bonne voie et qu'elle avançait bien. La section syndicale avance, en outre, que les marges de Viveo sont insuffisantes, qu'elle restent inférieures au taux de 20 % promis à la Bourse, et que, seules, les économies réalisées grâce aux licenciements permettraient d'atteindre cet objectif. La tempête sociale et juridique qui souffle chez Viveo depuis plus de sept mois semble désormais tourner à l'ouragan.

L'affaire a été mise en délibéré pour un jugement qui sera prononcé le 30 septembre.

(...)

(20/09/2010 15:29:53)

Avec le rachat de Suse, VMware pourrait mettre un terme à sa croisade anti-OS

VMware qui a bâti sa renommée en industrialisant la virtualisation des serveurs basés sur Unix et Windows expliquait jusqu'à présent que la virtualisation était là pour prendre en charge la gestion du matériel et des systèmes d'exploitation. Et pour accompagner les besoins de ses clients, l'éditeur de Palo Alto prépare également une offre de cloud computing visant à réduire l'apport de Windows sur les PC de bureau.

Mais avec le rachat de l'activité Suse Linux de Novell
, VMware deviendrait à son tour un fournisseur de système d'exploitation - comme Oracle avec Solaris depuis le rachat de Sun -  et serait donc bien obligé de reconnaître l'importance des dits OS. Les analystes estiment que la tentative de reprise de Suse Linux a du sens et aidera VMware rivaliser avec Microsoft, son principal rival, et Red Hat. Ces derniers expliquent que VMware ne peut pas offrir de plate-forme cloud computing complète parce qu'il lui manque certaines briques dont le système d'exploitation. Et si l'OS de Microsoft conserve son actuelle position dominante, VMware ne sera pas en mesure de rivaliser avec l'éditeur de Redmond sur le long terme, avance Chris Wolf analyste au Burton Group. « Microsoft a toujours été en mesure de suivre de près le lien entre les infrastructures, son système d'exploitation et les applications », explique Chris Wolf. «Avec le temps, il est clair que les logiciels de Microsoft fonctionneront de mieux en mieux sur Hyper-V » [ que sur VMware, NDLR].

De la nécessité d'un OS


Alors que Microsoft offre gratuitement Hyper-V 2, son hyperviseur de type 1 pour serveur, en tant que complément de Windows Server 2008 r2, VMware pourrait également fournir un système d'exploitation Linux comme un add-on de sa plate-forme de virtualisation. Une sorte de miroir à la stratégie de Microsoft. En fait, VMware le fait déjà à travers un accord OEM avec Novell pour la distribution et le support de Suse Linux. Prendre Suse Linux sous son aile - par le biais d'une acquisition - est «la meilleure chance [de VMware a] au cours des 15 prochaines années pour rester dans le coup», souligne Chris Wolf, qui a également écrit sur son blog que l'éditeur a besoin de son propre système d'exploitation. VMware continue de soutenir que le système d'exploitation perdra de sa pertinence dans le futur, mais l'achat de Suse Linux serait bien l'aveu que « cette pertinence est encore d'actualité, conclut-il. Charles King, analyste chez Pund-IT, livre des remarques similaires dans une interview accordée vendredi dernier à nos confrères de ComputerWorld. L'analyste explique que le PDG de VMware, Paul Maritz, semble croire que « la fin du système d'exploitation est proche », mais un changement si majeur prendra des années voire des décennies, si cela arrive vraiment poursuit Charles King. "Il y a tout simplement beaucoup trop d'infrastructures et d'investissements réalisés pour que les entreprises abandonnent purement et simplement le coeur de leur architecture informatique utilisé depuis des décennies", explique Charles King.

Même si Paul Maritz est dans le vrai quand il prédit que les systèmes d'exploitation continueront à perdre de leur importance au cours des années à venir, il doit encore répondre aux besoins actuels des clients. Avec un système d'exploitation solide, VMware "serait en passe de posséder toutes les piles", poursuit l'analyste, qui croit que VMware devrait également acheter Novell Cloud Manager, qui prend en charge les hyperviseurs de plusieurs fournisseurs.

Quid des partenariats ?


Le dilemme qui pourrait être soulevé par un accord Novell/VMware pourrait être le sort réservé au partenariat de Microsoft avec Novell, qui garantit l'interopérabilité entre Windows et Suse Linux. "Si quelqu'un sera très contrarié si Suse va chez VMware, Microsoft figure tout en haut de la liste, " pointe l'analyste de Pund-IT. Le deuxième sur cette liste pourrait être Red Hat, qui ne serait plus en mesure de faire valoir que VMware a une offre bancale faute de système d'exploitation. Ainsi doté, VMware serait également capable de prendre plus de parts du marché Linux à Red Hat que Novell. Au dernier trimestre, le chiffre d'affaires de VMware était ainsi trois fois supérieur à celui de Novell.

Bien que l'acquisition d'un système d'exploitation robuste permettra à VMware de consolider sa pile solutions, certains problèmes demeurent. Windows est toujours beaucoup plus utilisé que la distribution Linux de Novell et le framework .NET plus répandu que la plate-forme de développement Java SpringSource de VMware. Avec cette dernière acquisition (voir lien), l'éditeur de Palo Alto entendait bien rivaliser avec la solution de Microsoft, mais la solution .NET est devenue énorme » souligne Chris Wolf. « Un gigantesque écosystème dédié au développement s'est développé autour de lui. »

(...)

(20/09/2010 14:47:42)

L'UE milite pour le haut débit pour tous

Après les incantations du projet Europe 2020 sur la stratégie numérique communautaire, place à la mise en oeuvre non contraignante des objectifs. La Commission européenne a dévoilé plusieurs initiatives pour entre autres atteindre à cette échéance « 50% des foyers européens » connectés au très haut débit.  L'exécutif bruxellois constate que même si la région Europe dispose d'un taux de pénétration du haut débit le plus élevé au monde (24,8%), l'accès via la fibre ne comprend que 1% de connectés. Pour accélérer ce déploiement et réduire également la fracture numérique entre les villes et zones rurales, le train de mesures de la Commission se compose de trois éléments distincts :  une communication qui décrit  les meilleures méthodes pour encourager les investissements publics dans les réseaux haut et très haut débit. En sachant que le montant total de cet effort est estimé entre 180 et 270 milliards d'euros.

 

Équilibre entre investissements et concurrence

Autre élément, une recommandation propose un accès réglementé aux réseaux d'accès de nouvelle génération, notamment la fibre optique. Dans cette publication, la Commission souhaite un accès non discriminatoire et à un prix orienté vers les coûts pour les nouveaux entrants sur le marché de la fibre optique.  Nonobstant, l'institution communautaire admet une prime de risque lié à l'investissement consacré et une régulation plus flexible dans les zones denses.

Enfin, une proposition de décision du Parlement européen et du Conseil portera sur la réattribution du spectre radioélectrique issu de la fin de la télévision analogique. Le fameux dividende numérique est souvent cité comme l'élément important de réduction de la fracture numérique du territoire. Dans certains pays, cette réattribution est en cours comme Allemagne. En France, l'ARCEP a prévu des appels à candidature pour les fréquences en 800 MHz en 2011.

(...)

(20/09/2010 14:45:30)

Un chef d'Interpol se fait dérober son nom sur Facebook

C'est l'une des personnes les plus puissantes dans le monde de la police, mais sur Facebook, Ronald K. Noble, l'un des hauts responsables d'Interpol, est tout aussi vulnérable que n'importe qui concernant le vol d'identité. Selon le site britannique Techworld.com, le secrétaire général de l'agence a révélé, lors d'une conférence organisée la semaine dernière à Hong-Kong, que des cybercriminels avaient créé deux profils Facebook pour obtenir des informations sur l'une des opérations de son agence, baptisée « Infra-Rouge ». La fraude a récemment été découverte par les équipes sécurité d'Interpol. « L'un des hackers a utilisé mon profil pour obtenir des informations sur des fugitifs recherchés dans le cadre de cette opération », a déclaré le responsable d'Interpol.  « Infra-rouge », qui s'est déroulée entre mai et juillet 2010, devait conduire à l'arrestation de fugitifs accusés de meurtre, pédophile, fraude, corruption, trafic de drogue et blanchiment d'argent, dans différentes juridictions. Elle avait autorisé 130 arrestations. 

Le cyberespace, véritable menace criminelle

«La cybercriminalité est en train de devenir une menace très concrète », a souligné Ronald K Noble. Selon ce dernier, si l'on considère le facteur anonyme du cyberespace, l'on peut estimer que ce dernier constitue l'une des menaces criminelles les plus dangereuses qu'on n'ait jamais connues. 
Bien que Facebook, en lui-même, n'ait pas été compromis de quelque façon que ce soit par cette affaire, l'exemple cité par Interpol montre bien la facilité avec laquelle les cybercriminels parviennent à s'y forger une identité. Ce phénomène concerne aussi bien Facebook, que d'autres réseaux sociaux, comme Twitter, également en lutte avec ce type de problème. Néanmoins, même pour les non-VIP qui utilisent des comptes, Facebook reste le lieu controversé pour apposer certaines informations. La semaine dernière, une étude indiquait que de nombreuses PME américaines avaient connu des problèmes de sécurité, suite à l'intérêt des employés pour ce site.

 


(...)

< Les 10 documents précédentsLes 10 documents suivants >