Flux RSS

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

108538 documents trouvés, affichage des résultats 12521 à 12530.

< Les 10 documents précédentsLes 10 documents suivants >


(31/12/2008 10:56:20)

Bilan 2008 : Le cloud prend forme dans la plus grande confusion

Si Dell a tenté de s'accaparer l'idée sans complexe en déposant un brevet sur le terme 'cloud', tous les acteurs de l'IT sans exception ont adopté le concept cette année. Le résultat est plutôt en contradiction avec l'intention : nous sommes dans le règne de la plus totale confusion, savamment entretenue par les fournisseurs. Le cloud computing, assorti de son inséparable acolyte le Saas (Software as a service, service applicatif en ligne), est sensé offrir aux entreprises des services informatiques complets et sécurisés à la demande. Autant de services qui seront donc installés sur des infrastructures distantes, hors l'entreprise, voire distribuées. Il ne s'agit pas seulement, comme on le laisse souvent entendre, d'héberger les applications et les données de l'entreprise à distance, mais bel et bien de rebâtir son système d'information en mode réparti entre ses propres sites et le 'nuage' (cloud). En 2008, constructeurs de serveurs, offreurs de stockage, éditeurs d'OS, éditeurs d'hyperviseurs, s'y sont tous mis. Bien sûr, il y eut Google, Amazon et Microsoft. Ces deux-là se sont illustrés le même jour d'octobre. Amazon a alors sorti son EC2 de sa phase bêta et Microsoft a enfin levé le voile sur le très attendu Azure. Mais les IBM, Sun, HP, Dell, Intel, EMC, VMware, Citrix ou Yahoo s'en sont aussi donné à coeur joie. Chacun avec sa propre définition. C'est pour cette raison, entre autres, que les dernières études de cabinets d'analystes préconisent la prudence vis à vis de tels environnements. Dans l'intérêt des entreprises utilisatrices, mais aussi celui des fournisseurs, 2009 devra être l'année de la clarification du concept de cloud. Le cloud ou le retour des environnements propriétaires Mais les DSI pourraient bien passer outre les conseils de prudence. Crise oblige. A priori, louer son infrastructure et ses applications apparaît moins cher que d'acquérir le tout. D'autant qu'avec le cloud, on peut commencer petit, et faire évoluer son 'SI dans les nuages' en fonction de ses besoins. Reste que pour connaître le coût total véritable d'un environnement de cloud, il faudra attendre que les premières entreprises aient essuyé les plâtres. Même si cela ne concerne qu'une partie du SI, pour migrer d'une bonne vieille installation en client-serveur vers un modèle de type cloud, il faudra repenser son système d'information, migrer ses applications, former les développeurs et les mainteneurs, etc. Et que dire de la nouvelle dépendance à un fournisseur qui se profile à l'horizon ? Les nuages pourraient bel et bien rappeler les années bleues des systèmes propriétaires. Et ce, même si les premiers partenariats se sont noués cette année (entre Salesforce et Google, par exemple). Aujourd'hui, difficile de dire combien coûtera, en temps et en argent, le passage d'un système d'information depuis l'EC2 d'Amazon vers l'Azure de Microsoft, par exemple. A lire sur le sujet : - Le 22 décembre : Ovum regarde le cloud computing avec circonspection - Le 12 décembre : Microsoft pense que la crise financière dopera son cloud Azure - Le 12 décembre : Le cloud d'Amazon EC2 arrive en Europe - Le 8 décembre : Salesforce interface son Force.com avec l'App Engine de Google - Le 19 novembre : Capgemini utilise le 'cloud' d'Amazon pour développer des applications - Le 19 novembre : Avec Decho, EMC prépare un nuage de stockage pour particuliers et PME - Le 18 novembre : Adobe Max : CoCoMo rappelle la stratégie S+S de Microsoft - Le 17 novembre : Exchange et SharePoint officiellement utilisables en ligne - Le 14 novembre : Le Gartner prédit l'émergence de clouds privés chez les grands comptes - Le 13 novembre : EMC recouvre la planète d'un immense nuage de données - Le 4 novembre : Dreamforce : Salesforce s'accroche à Amazon et Facebook - Le 30 octobre : PDC 2008 : Ray Ozzie, architecte en chef de Microsoft, donne sa vision d'Azure - Le 27 octobre : PDC 2008 : Microsoft dévoile Azure, son offre de 'cloud computing' - Le 27 octobre : Amazon EC2 sort de sa phase bêta et héberge WS Server 2003 - Le 15 octobre : Google et le Cigref partenaires pour étudier le Saas et le 'cloud computing' - Le 8 octobre : IBM ouvre ses services collaboratifs et un réseau social d'entreprise en mode cloud - Le 6 octobre : Premier Oracle OpenWorld après le rachat de BEA : Oracle accoste le 'cloud' d'Amazon - Le 26 septembre : Steve Ballmer se donne 5 ans pour concurrencer Google - Le 18 septembre : Citrix place la V5 de XenServer au coeur de son cloud - Le 16 septembre : VMware propose un OS pour les datacenters - Le 18 août : Dell n'a pas réussi à déposer la marque 'cloud computing' - Le 8 août : SQL Server 2008 paré au téléchargement - Le 30 juillet : HP, Intel et Yahoo collaborent autour du cloud computing - Le 8 juillet : Le Gartner identifie sept risques dans le 'cloud computing' - Le 25 juin : Allié à Google, Salesforce.com affirme disposer d'une plateforme en ligne complète - Le 18 juin : Red Hat rend JBoss disponible sur Amazon EC2 - Le 2 mai : IBM et Google font cloud computing commun - Le 14 avril : Les Google Apps à l'assaut du million d'utilisateurs de Salesforce - Le 20 mars : IBM ouvre son premier centre 'cloud computing' européen à Dublin - Le 10 mars : Le 'cloud computing' paré pour l'entreprise d'ici un an ou deux, estime Forrester (...)

(31/12/2008 10:32:47)

La crise fait chuter les ventes en ligne de 3% aux Etats-Unis à Noël

Les ventes en ligne aux Etats-Unis ont baissé de 3% entre les fêtes de Noël 2007 et 2008, selon ComScore. Le cabinet d'études s'avoue déçu par ces résultats. Les internautes américains ont dépensé « seulement » 25,5 Md$ entre le 1er novembre et le 23 décembre, contre 26,3 Md$ un an plus tôt. « C'est la première fois que nous observons des taux de croissance négatifs pour les fêtes de fin d'année depuis 2001, année lors de laquelle nous avons commencé à suivre l'évolution du e-commerce», a déclaré Gian Fulgoni, président de ComScore. La mauvaise nouvelle de Noël plombe évidemment la fin de l'année fait tâche d'huile : c'est tout le qui est affecté : le chiffre d'affaire des ventes en ligne au quatrième trimestre perd 4% (36,8 Md$ contre 38,4 Md$ un an plus tôt). Gian Fulgoni accuse la frilosité des consommateurs en raison de la récession économique. « La saison a été difficile pour tous les consommateurs », a-t-il précisé. eBay a par exemple reçu la visite unique de 85,4 millions d'internautes. Un score qui subit une baisse 4 % an par rapport à 2007. Cette morosité correspond toutefois aux chiffres enregistrés en novembre dernier (-4%). Certains sites tirent toutefois leur épingle du jeu. Amazon grimpe à la deuxième place, avec plus de 76 millions de visiteurs uniques, soit une augmentation d'environ 7% sur un an (le géant de l'e-commerce a même battu son record à Noël, avec près de 73 objets vendus à la seconde). Wal-Mart parvient à la troisième position, avec 51,5 millions de visiteurs (+ 4%). Côté ventes, HP a enregistré une progression de 28% et Apple de 19%. (...)

(30/12/2008 17:04:39)

Un brevet pour des PC payables à l'usage

Prenez un PC gratuitement et ne payez que pour la puissance et les logiciels que vous utilisez. Tel pourrait être à l'avenir le slogan des vendeurs de PC (ou plutôt de services, dans ce cas), si le brevet que vient de déposer Microsoft devenait réalité. Intitulé « Metered Pay-As-You-Go Computing Experience », le principe décrit par Microsoft consiste à mesurer à la fois le temps d'utilisation et la consommation de ressources d'un utilisateur, de façon à ne lui faire payer que ce qu'il consomme. Cela grâce à une combinaison d'éléments matériels et logiciels embarqués dans le PC. L'idée, explique Microsoft, est que le plus grand nombre de gens possible puisse s'équiper d'un PC haut de gamme, sans s'acquitter du prix facial d'un tel ordinateur. C'est l'usage de l'ordinateur qui serait facturé, soit grâce à des cartes prépayées, soit par prélèvement mensuel en même temps que le paiement de l'abonnement à Internet, soit par tout autre moyen de paiement connu... Pourquoi payer plein pot une carte 3D utilisée seulement de temps en temps ? Microsoft indique quelques exemples où une telle technologie serait utile : un logiciel de création graphique qui n'est utilisé qu'en certaines occasions festives, une carte 3D et plusieurs coeurs qui ne servent que de temps en temps pour un jeu alors que le reste du temps le PC fait tourner un traitement de texte et un navigateur Web, etc. Ce principe de paiement à l'usage est déjà mis en oeuvre pour les gros serveurs et mainframes, mais à un stade rudimentaire - activation d'un processeur, notamment, pour un pic de charge - par rapport à ce qui est décrit dans ce brevet. De même, Microsoft a de son côté déjà appliqué un peu ce principe avec son initiative Flexgo : des PC pour les pays émergents, vendus moitié prix avec un crédit de temps d'utilisation renouvelable. Un plus grand verrouillage de l'utilisateur de PC [[page]] Le brevet va beaucoup plus loin, puisqu'il s'agit de tout instrumenter et mesurer, de la moindre application (commerciale, bien sûr : le brevet évite soigneusement de mentionner les logiciels gratuits et Open Source) au cycle d'horloge de chaque coeur, en passant par les gigaoctets du disque dur. Tout en gardant la possibilité de bloquer l'usage du PC en cas de défaillance du paiement, grâce à un module sécurisé intégré - capable de fonctionner tant en mode connecté qu'en mode déconnecté. La gratuité des logiciels Open Source et des applicatifs Web écorne le modèle Bien sûr, cela soulève plusieurs problèmes et questions. En premier lieu, les actions de l'utilisateur d'un ordinateur serait encore plus scrutées qu'elles ne le sont actuellement, ce qui ne passera pas sans soulever quelques polémiques de bon aloi. En outre, combien d'utilisateurs accepteraient de payer des applications à l'usage, quand l'Open Source fournit des alternatives crédibles que beaucoup de services applicatifs sont accessibles gratuitement sur Internet ? Quant à ses données personnelles, une sauvegarde externe deviendrait alors indispensable. Ensuite, le coût total de possession pourrait bien être plus élevé que le prix théorique d'acquisition de l'ordinateur ; Microsoft le reconnaît, mais explique que la répartition des paiements au cours du cycle de vie de la machine est un avantage (un peu comme louer une voiture plutôt que de l'acheter). Enfin, cela changerait totalement la relation entre les fabricants de PC et les utilisateurs. Les premiers, explique Microsoft, y gagneraient car ils pourraient standardiser leurs lignes de produits et se concentrer sur le haut de gamme. Quant aux utilisateurs, ils devraient ne plus avoir qu'un interlocuteur, sur le modèle de ce qui se pratique avec les téléphones mobiles : l'opérateur subventionne le terminal, perçoit l'abonnement et facture les services supplémentaires. Nul doute que les fournisseurs d'accès à Internet devraient se montrer intéressés par cette nouvelle possibilité de garder des clients captifs. Ils pourraient ainsi proposer des forfaits différenciés : pour la bureautique, pour les joueurs occasionnels. On imagine déjà le succès de la super promo du forfait avec jeu 3D illimité le soir et le week-end ! (...)

(30/12/2008 15:32:37)

Bilan 2008 : La crise financière oblige les acteurs IT à se serrer la ceinture

La crise économique était latente depuis quelques mois, selon les analystes. Fin août, ils n'observaient toutefois pas encore d'impact significatif sur le marché européen. C'était sans prévoir l'ampleur du krach boursier qui a atteint les places financières américaines, japonaises et européennes entre septembre et octobre, notamment en raison du rejet du plan Paulson, censé relever l'économie américaine à grands renfort de dollars (700 Md$). « Cette crise brutale n'a fait qu'exacerber une situation économique déjà fragilisée », notait alors Virginie Lazes, directrice associée pour la banque d'investissements Bryan Garnier & Co. L'analyste s'attendait par ailleurs à une multiplication des alertes sur résultats dans le courant de l'année, ainsi qu'à un ralentissement de l'activité dans les sociétés IT. L'avenir lui a donné raison. Témoin de la morosité régnante, même l'action de Google est passée sous la barre des 300 $, une première depuis trois ans. De fait, si les entreprises du secteur ne sont pas directement affectées par la crise financière, elles le sont indirectement, du fait de la méfiance des investisseurs et des ralentissements et suspensions de projets décidés par les entreprises utilisatrices. De nombreux acteurs - à l'instar de Microsoft, de Sun ou encore de SAP - ont donc présenté des plans internes de restriction drastique des coûts : gel des embauches, réduction des frais de marketing, examens de tous les frais généraux, notamment liés aux voyages professionnels... Même du côté des SSII indiennes - réputées pour leur croissance flirtant avec les 50% - les résultats restent à deux chiffres, mais sont quasiment divisés par deux. Nombreuses d'entre elles ont par ailleurs annoncé des plans de licenciements et de réduction des coûts. Quant aux analyses des grands cabinets, elles ne sont pas fameuses : selon iSuppli, le marché des ventes de PC, grand abonné des taux de croissance à deux chiffres, devrait subir de plein fouet la crise économique. Même constat pour IDC, qui prédit une croissance de l'ensemble des dépenses high-tech de l'ordre de 2,6% seulement en 2009, contre les 5,9% annoncés en août dernier. A lire sur le sujet : Le 28 novembre 2008 : L'Europe divise par deux ses prévisions de croissance des TIC pour 2009 Le 21 novembre 2008 : Le rythme des ventes de PC devrait s'écrouler l'an prochain Le 14 novembre 2008 : IDC révise à la baisse ses prévisions de dépenses IT pour 2009 Le 13 novembre 2008 : Badaboum: Intel révise fortement ses prévisions à la baisse Le 12 novembre 2008 : Même la Silicon Valley est affectée par la crise, montre le Mercury News Le 6 novembre 2008 : Trimestriels Cisco : l'équipementier contraint de geler ses embauches Le 24 octobre 2008 : Microsoft se serre la ceinture pour affronter la crise Le 21 octobre 2008 : Sun lance un avertissement sur ses résultats trimestriels Le 14 octobre 2008 : Les dépenses IT vont se tasser... mais moins qu'en 2001, prédit Gartner Le 10 octobre 2008 : Trimestriels : l'Indien Infosys reste en croissance, mais subit la crise Le 7 octobre 2008 : SAP avertit que son activité a été touchée par les troubles économiques Le 7 octobre 2008 : La crise boursière ébranle les valeurs IT françaises Le 30 septembre 2008 : Douche froide pour les valeurs technologiques après le rejet du plan Paulson Le 24 septembre 2008 : Le coup de froid se confirme dans les SSII indiennes Le 18 septembre 2008 : La crise bancaire américaine n'épargnera pas l'informatique Le 27 août 2008 : La crise des subprimes n'impacte pas encore les services informatiques bancaires (...)

(30/12/2008 12:36:38)

Telelogic sélectionné par Eaton pour développer un système d'économie de carburant

Toujours soucieux d'apparaître actif sur le front du Green IT, IBM a annoncé que son logiciel de modélisation Telelogic Rhapsody avait été sélectionné par Eaton (spécialisé dans la protection électrique) pour développer un nouveau système de distribution hydraulique hybride pour les voitures. Ce système (baptisé SHH pour système hydraulique hybride) devrait permettre - à long terme - de réaliser des économies de carburants de l'ordre de 50%, selon Eaton, et remplacer les systèmes de transmission classique. Grâce à un système (dirigé par une puce électrique), l'économie de carburant est réalisée de trois manières: à chaque freinage, l'énergie du véhicule (normalement gaspillée) est récupérée, le fonctionnement du moteur est optimisé et le moteur est automatiquement coupé lorsqu'il est à l'arrêt ou en phase de décélération. Telelogic, racheté en juin 2007, servira à modéliser le logiciel gérant le comportement du système. Les premiers tests grandeur nature seront réalisés sur deux camions de livraison UPS à Minneapolis au cours du premier semestre 2009. (...)

(30/12/2008 11:51:50)

Quarante pages de conseils Microsoft pour un SI durable

La dernière édition de The Architecture Journal, publication éditée par Microsoft, est entièrement consacrée au Green IT. Ou, plus exactement, aux systèmes d'information durables et compatibles avec les bonnes pratiques en matière de préservation de l'environnement et de réduction des émissions de CO2. Comme l'écrit le rédacteur en chef dans son édito, « alors que l'informatique devient omniprésente, que la consommation d'énergie due à l'informatique grimpe, [...] que dans le même temps les coûts de l'énergie augmentent - tant à cause des réglementations que de la rareté des stocks d'énergies naturelles qui vont en s'épuisant - les dirigeants IT doivent se focaliser sur l'efficacité énergétique et le coût total d'exploitation, particulièrement dans un contexte de crise financière mondiale ». Le numéro 18 de ce trimestriel, disponible gratuitement en PDF, explore donc en une quarantaine de pages tout ce qui contribue à une architecture de SI éco-compatible, des techniques de climatisation des datacenters à la conception des applications, en passant par la consolidation et la virtualisation. Des bonnes pratiques de gouvernance... aux références aux produits maison Le premier chapitre, consacré à la conception d'un système d'information durable d'un point de vue environnemental, est écrit par Lewis Curtis, architecte principal chez Microsoft. Il pose les bases d'une réflexion d'ordre général pour quiconque souhaite concilier des impératifs écologiques et économiques avec les impératifs de performance attendus d'un système d'information. A ce titre, son analyse n'a rien à envier à celle d'un cabinet d'études qui la vendrait plusieurs milliers de dollars. En revanche, les réponses de Lewis Curtis sont bien évidemment orientées, puisqu'elles impliquent les produits qu'il représente. Au lecteur de conserver les réponses architecturales et d'appliquer ce modèle de réflexion avec ses propres références ; en matière de gouvernance, les bonnes pratiques ne dépendent pas d'un éditeur ou d'une technologie. Le deuxième chapitre rappelle quelques évidences en ce qui concerne le déploiement d'applications. Les auteurs expliquent ainsi qu'une application mal conçue - qui exige un serveur à elle seule, ou n'utilise qu'un coeur d'un processeur multicoeur - a un impact négatif sur la consommation énergétique. De même, il ne faut pas, indique l'article, omettre de recourir aux modes d'économies d'énergie lorsqu'une application, un disque ou un processeur est inactif, ou oublier d'alléger les bases de données de production en recourant à des systèmes d'archivage. A l'inverse, le fait de consolider des applications, ou mieux de recourir à la virtualisation conduit à des gains importants. L'étape ultime étant le 'cloud computing'. Dans tous les cas, les auteurs donnent des critères à observer et des métriques pour évaluer l'impact en matière de réduction de la consommation d'énergie (et, partant, de la facture d'électricité). Les composants applicatifs et architectures distribuées pour un impact minimal sur l'environnement [[page]] Le troisième chapitre s'attaque aux architectures applicatives. Fini le temps où on pouvait se permettre de dimensionner une solution en prenant comme critère de base son niveau de pic de charge plus 20 à 50%, histoire d'être tranquille. L'article donne donc moult conseils pour optimiser les applications, l'idée étant qu'elles aient un impact minimal en termes de consommation de ressources. Cela passe par le recours à des composants applicatifs, à des architectures orientées services (SOA), de l'instrumentation et de la supervision, de la virtualisation, de l'équilibrage de charges...Là encore, et d'ailleurs les auteurs prennent soin de le préciser, « si la taxonomie peut apparaître spécifique à Microsoft et à Windows, cela fonctionne aussi bien avec d'autres OS et applications ». Un chapitre entier est consacré à la façon dont on peut calculer la consommation d'énergie d'un serveur, d'un disque dur, d'une application, d'une base de données, etc. Avec cette abaque, il devient beaucoup plus simple de traduire en termes monétaires les gains apportés par telle ou telle bonne pratique. Les auteurs de ce chapitre en profitent pour rappeler qu'un certain nombre de services sont totalement inutiles pour faire tourner une machine virtuelle. Cela tombe bien, Windows Server 2008 ayant appris d'autres OS et proposant un mode d'installation minimal. Le DC Genome, ou comment évaluer la climatisation d'un datacenter avec des capteurs sans fil Plus surprenant, l'avant dernier chapitre détaille la mise en oeuvre de capteurs sans-fil dans le datacenter de Microsoft conçu à cet effet, le DC Genome. Plutôt que d'ajouter de la complexité avec des composants matériels ajoutés aux différents éléments du datacenter, Microsoft a conçu un réseau d'environ 700 senseurs ('genomotes') permettant de mesurer la température et l'humidité partout dans la salle, afin d'ajuster au mieux les paramètres du système de climatisation en quasi-temps réel. Les genomotes eux-mêmes communiquent en IEEE 802.15.4, car, indique Microsoft, il s'agit d'un réseau radio moins gourmand en énergie et en ressources processeur que le WiFi. Le dernier chapitre, pour le coup, ne s'applique qu'aux technologies Microsoft, puisqu'il traite de la consolidation de bases SQL Server telle qu'elle a été pratiquée chez Microsoft, pour son propre système d'information. Et cela pourrait intéresser des clients grands comptes de l'éditeur. En effet, comme n'importe quelle entreprise, Microsoft a dû affronter un tableau peu reluisant : 100 000 bases de données réparties dans 5 000 instances de SQL Server, la plupart sur des serveurs dédiés, chacun présentant un taux d'utilisation moyen des ressources processeur en deçà de 10%. (...)

(29/12/2008 16:56:10)

Sun assure que JavaFX sera entièrement disponible en Open Source

Conformément à sa politique, Sun mettra bien à disposition tous les éléments de sa technologie d'interfaces riches, JavaFX, sous licence Open Source. Jeet Kaul, vice-président du Software Client Group de Sun, l'a réaffirmé sur son blog, tout en précisant que cela prendrait un peu de temps. Plusieurs éléments de JavaFX sont déjà disponibles selon les termes de la GPL, notamment le compilateur et le plug-in pour Netbeans. Mais certains autres présentent des dépendances avec du code sous licence propriétaire, explique Jeet Kaul. « Nous travaillons à réduire les dépendances, de façon à ce que les portions non-propriétaires puissent être ouvertes. » Jeet Kaul précise par ailleurs que la version mobile de la solution RIA (Rich Internet application) de Sun sortira en mars. JavaFX à fort à faire pour rattraper son retard sur les solutions concurrentes, notamment de Google (GWT), Adobe (Flex/AIR) et Microsoft (Silverlight). (...)

< Les 10 documents précédentsLes 10 documents suivants >