Flux RSS
Business

9034 documents trouvés, affichage des résultats 751 à 760.
< Les 10 documents précédents | Les 10 documents suivants > |
(13/10/2011 10:08:10)
L'Etat veut continuer à réduire la facture informatique
Le SAE, Service des achats de l'Etat, créé en mars 2009, publie son rapport annuel 2010. Une synthèse d'une trentaine de pages pour expliquer comment l'Etat entend réduire ses dépenses (programme dit « Calypso »), particulièrement dans le domaine informatique-bureautique (*). On se souvient de la polémique née en 2010 entre le Sae, et d'autres services de l'Etat, d'une part ; les représentants des revendeurs informatiques et bureautiques de l'autre, en particulier la Feb et la Ficome.
Globalement, l'Etat veut réduire sa facture de 1 milliard d'euros en trois ans, sur un potentiel de dépenses de 10 milliards. Plusieurs marchés informatiques sont concernés. Et d'abord les infrastructures. Sur ce point, le SAE a décidé de segmenter les marchés informatiques et de cibler le stockage. Sept ministères ont défini des configurations communes, ce qui leur permet de mieux négocier avec les prestataires.
Parallèlement, le SAE a créé des leviers de performance des achats, comme l'analyse en coût complet (matériels + logiciels), des facturations spécifiques (pour les logiciels, ou par gigabits en matière de stockage). Le rapport assure qu'une DSI ministérielle a pu ainsi réduire en un an, ses coûts de stockage : 16,% sur les baies, 47% sur les logiciels, 64,5% sur les disques.
Diminution des références en bureautique
Tout autre sujet, mais également très sensible, celui des fournitures de bureau. C'est le tiers des dépenses de l'Etat sur ce segment informatique-bureautique. Solution ? Le Sae a réduit les références à 2 000, de manière à standardiser et à mutualiser les choix.
D'autres instruments sont à disposition des ministères. Les acheteurs de chaque département ministériel ont par exemple en main, depuis février 2010, un logiciel nommé : Instrument de Mesure de la Performance AChaT (Impact). En matière de paiement, le Sae recommande la commande en ligne ou l'utilisation de la carte d'achat de manière à simplifier les procédures. 10 000 cartes de paiement ont été diffusées en 2010, elles permettent de traiter les paiements de faible montant.
Le rapport consacre enfin un volet important au sujet ultrasensible des PME et de leur accès à la commande publique. Le Sae parle de « respect des bonnes pratiques », « d'équilibre des relations avec les fournisseurs ». « Des allotissements techniques ou/et géographiques ont ainsi pu être organisée pour les segments d'achat dans lesquels les PME étaient représentées (entretien des locaux, contrats de maintenance, prestation informatique etc....) » explique encore le Sae. Il serait intéressant d'avoir l'avis des PME qui ont l'habitude des appels d'offre publics.
(*) Le programme dit Calypso consiste à identifier des gains potentiels en mobilisant une centaine de fonctionnaires des administrations centrales ou déconcentrées. Calypso comporte plusieurs vagues, la deuxième s'est tenue entre le 15 mars et le 15 juin derniers et traitait de PC et de télécoms. Le gain potentiel est de 377 ME. La vague n°3, en cours, porte uniquement sur l'immobilier.
(...)(12/10/2011 16:00:28)Les Etats-Unis veulent reprendre la tête des supercalculateurs avec Titan
La course mondiale au supercalculateur le plus rapide a pris aujourd'hui un nouveau tournant. En effet, Cray a annoncé avoir remporté un contrat avec le Laboratoire National d'Oak Ridge, qui dépend du Département Américain à l'Énergie, pour mettre au point un système capable de délivrer une puissance de calcul pouvant atteindre les 20 pétaflops, soit 20 X (10 puissance 15) opérations en virgule flottante par seconde. Selon Cray, le coût de ce supercalculateur, dénommé Titan, est estimé à plus de 97 millions de dollars. Il doit être achevé en 2013.
Cray ne partira pas de zéro pour le construire, même s'il s'agit d'une mise à jour majeure de son supercalculateur Jaguar déjà installé à Oak Ridge. Selon le centre américain, Jaguar, qui affiche une puissance de calcul de 2,33 pétaflops, est le superordinateur le plus rapide des États-Unis. Son successeur, Titan, sera construit en associant des processeurs GPU et CPU. Chaque node de calcul du système Jaguar actuel affiche deux processeurs AMD Opteron. Le projet de Titan implique, en partie, la suppression d'un processeur Opteron et son remplacement par un GPU Nvidia, l'autre processeur sera remplacé par des puces Interlagos 16 coeurs. Selon Sumit Gupta, directeur du département Tesla GPU chez Nvidia, le système d'Oak Ridge pourra « largement dépasser les 20 pétaflops», s'il est réalisé sur la base de Jaguar. Le nouveau supercalculateur va concentrer la puissance de 18 000 processeurs graphiques Tesla. « C'est une étape vers un plus grand système à 100 pétaflops. C'est à dire que nous nous rapprochons de l'Exascale, » a déclaré le responsable de Nvidia.
Une utilisation de plus en plus importante des GPU
IBM doit également construire pour le Lawrence Livermore National Laboratory un système délivrant une puissance de calcul de 20 pétaflops appelé Séquoia. Ce dernier, dont le coût n'a pas été divulgué, devrait être prêt en 2012. Ces dernières années, les constructeurs de gros systèmes ont commencé à se tourner vers les processeurs graphiques pour améliorer les performances des supercalculateurs. Ces GPU, parfois appelées co-processeurs, peuvent grandement améliorer les capacités de calcul pour réaliser des simulations. « Dans le domaine du calcul haute performance, les GPU ont été largement étudiées sur le plan expérimental, » a déclaré Steve Conway, analyste spécialisé dans l'informatique haute performance chez IDC. Le système d'Oak Ridge « permet de franchir une étape supplémentaire quant à la pertinence de l'usage de ces processeurs dans les systèmes HPC, » a t-il ajouté.
Titan sera utilisé par les chercheurs du laboratoire d'Oak Ridge pour « pousser un peu plus le réalisme des simulations nucléaires », et « améliorer le pouvoir prédictif des simulations climatiques. » Le supercalculateur sera également utilisé pour développer et comprendre le fonctionnement des « nanomatériaux pour les piles, l'électronique et d'autres applications», a indiqué par ailleurs le laboratoire national américain. La construction de supercalculateurs dépend aussi d'autres facteurs, en particulier le coût, la quantité d'énergie dont ils ont besoin, et la capacité des logiciels à travailler à de telles échelles. Selon Steve Conway, il n'existe aujourd'hui que six applications capables de tourner à un pétaflop ou plus, en raison notamment de la complexité à développer des logiciels sachant tourner sur des milliers de processeurs et de tirer profit du parallélisme.
IBM acquiert Platform Computing, spécialiste de la gestion du HPC
Les logiciels développés par Platform Computing permettent aux entreprises de gérer des noeuds de serveurs comme une entité unique, et d'obtenir de grandes puissances de traitement. Les clusters peuvent alors réaliser de gros efforts de calcul, démultipliant les capacités des serveurs. C'est le cas dans la recherche mathématique, quand il s'agit de développer de nouveaux matériaux par exemple, ou pour le suivi en détail des marchés financiers. Selon IDC, les entreprises vont dépenser 14 milliards de dollars pour acquérir des matériels et des logiciels qui répondent aux besoins de cette informatique technique.
Le logiciel de Platform Computing est utilisé par les services financiers, les industriels, les médias numériques, le gouvernement et la recherche. L'entreprise basée à Toronto avait une position dominante dans le domaine très académique de l'informatique partagée, mais a récemment adapté ses produits pour le déploiement de services Cloud. L'entreprise compte plus de 2 000 clients, au nombre desquels Citigroup, Red Bull Racing, l'Université de Tokyo, ou encore le CERN (Organisation européenne pour la recherche nucléaire).
Courtisé de longue date
« Du point de vue d'IBM, cet achat est une bonne opportunité, car IBM pourra utiliser le logiciel de Platform de différentes manières », fait remarquer Charles King, président et analyste principal de Pund-IT. Le logiciel pourrait jouer un rôle clé dans la stratégie d'IBM pour bâtir des services Cloud multiplateformes. L'analyste souligne également que, au cours des 10 dernières années, IBM s'est associé à la plateforme dans diverses applications et travaux HPC mettant en oeuvre l'informatique partagée, si bien que la technologie de Platform Computing est devenue très complémentaire de celle d'IBM.
« IBM courtise Platform Computing depuis longtemps, » a déclaré Charles King. Les activités de l'éditeur, qui emploie 500 personnes dans le monde, seront intégrées dans la division Systems and Technology Group de Big Blue. Ce dernier pense finaliser son achat d'ici la fin de l'année.
Une intégration déjà bien avancée
Le marché du HPC « est en pleine expansion dans un secteur où les charges de travail intenses, très gourmandes en capacité de calcul, sont à la mesure de la demande en traitement de données, et va devenir la norme au cours de la prochaine décennie. L'entreprise canadienne a bâti sa réputation sur un logiciel de planification des tâches, mais propose aussi de très solides solutions construites autour du middleware Symphony. « IBM pense que son expertise dans le HPC sera potentiellement bénéfique au-delà de ce marché, » a déclaré Dave Jursik, président des ventes de HPC au niveau mondial chez IBM. Jusqu'ici, le HPC était « un domaine principalement réservé aux grandes institutions de recherche universitaires et gouvernementales », a-t-il ajouté. Aujourd'hui cependant, des industries très différentes peuvent avoir accès au calcul haute performance, grâce au logiciel d'analyse d'IBM qui permet de traiter de vastes quantités de données et résoudre des problèmes nécessitant du calcul intensif.
Le logiciel de planification de tâche de Platform Computing, mais aussi son expertise dans le middleware Symphony, pourrait aider IBM à mieux servir ces entreprises. « La base commune de ces technologies va contribuer à élargir notre rôle sur le marché et à approfondir l'expertise et la valeur de ce que nous pouvons apporter», a déclaré Dave Jursik.
Pannes Blackberry : un switch coeur de réseau mis en cause
Communication de crise, calmer les esprits, la publication hier d'un message de RIM pour indiquer « un retour à la normal des services » n'a semble-t-il pas convaincu les utilisateurs de BlackBerry qui subissaient encore des ralentissements ou des incapacités de services. Hier soir, le constructeur canadien est revenu à la charge en publiant sur son fil Twitter les raisons de la panne géante qui a touché plusieurs continents Europe, Asie, Afrique, mais aussi quelques pays d'Amérique du Sud. « Message delays were caused by a core switch failure in RIM's infrastructure. Now being resolved. Sorry for inconvenience » (les retards dans la récupération des messages sont dus à une panne d'un commutateur de coeur de réseau dans l'infrastructure de RIM. Maintenant, c'est résolu. Désolé pour ces désagréments).
Le PRA n'a pas fonctionné ?
La commutation de coeur de réseau permet de concentrer les flux de requêtes et d'assurer la distribution de ces demandes aux serveurs qui délivrent les services demandés. En général quand ce switch tombe, le trafic est détourné vers un commutateur de secours. Or, RIM a indiqué que cette solution de back-up n'a pas fonctionné, comme lors de tests réalisés préalablement. En conséquence, les flux de requêtes ont été si nombreux et importants que cela a provoqué un engorgement. Il semble que les retards s'étendent sur l'ensemble des continents, car même l'Amérique du Nord commence à subir des ralentissements sur les services Blackberry.
La guerre des prix paupérise le marché des PC en Europe
Conséquence directe d'une politique de prix agressive destinée à écouler les surstocks constitués fin 2010, la baisse des ventes de PC en valeur a atteint -11% (hors tablettes) en Europe lors du troisième trimestre 2011. Sur le seul segment des PC grand public, le recul atteint -18%. Ces chiffres, livrés par Context, sont à mettre en parallèle avec les ventes en volume qui ont enregistré dans le même temps une belle progression de 9%. Celle-ci s'est donc révélée insuffisante pour contrebalancer la chute de 10% du prix moyen des ordinateurs sur le continent.
La France limite la casse
Si l'ensemble des marchés d'Europe ont été touchés, ce sont ceux d'Europe du Sud qui ont le plus souffert. En Italie, les ventes de PC ont ainsi reculé de 10,3% en unités et de 21,3% en valeur. En Espagne, les chiffres sont de -7% (volume) et -15% (valeur). En France et en Allemagne, les baisses de prix ont eu au moins le mérite de faire progresser les ventes en volume. Outre-Rhin, le nombre d'unités vendues s'est ainsi apprécié de 7% pour un chiffre d'affaires en repli de 5,6%. En comparaison, les ventes en volume ont été plus vigoureuses dans l'Hexagone (+12,6%) mais les revenus des constructeurs y ont reculé d'avantage (-6,7%).
Telehouse lance une offre cloud en marque blanche
L'hébergeur Telehouse surfe sur la méfiance des revendeurs envers les politiques commerciales des fournisseurs de services cloud pour lancer une offre IaaS (Infrastructure as a Service) en marque blanche. Baptisée Cloud Automation, elle permet aux partenaires de piloter librement la distribution de machines virtuelles hébergées dans le cloud public de Telehouse, sans compétences particulières, à travers une interface web. Libre à eux de fixer le prix du service et de contrôler l'utilisation des ressources par leurs clients. La facturation des entreprises est également réalisée directement par les revendeurs à travers un système de facturation intégré.
Pour commercialiser ce service qui permet de proposer une offre IaaS sans investissement en matériel, l'hébergeur cible les agences web, les éditeurs indépendants, les VARs, les SSII et les intégrateurs. Il organisera une démonstration de sa solution lors des salons IP Convergence et Cloud and IT Expo qui se tiendront du 18 au 20 octobre au parc des expositions de la porte de Versailles à Paris. (...)
La crise impacte les investissements IT, mais moins qu'en 2008 selon IDC
IDC France interroge régulièrement les directions informatiques des grands comptes sur leurs investissements informatiques. La dernière salve porte sur le 1er semestre 2011 et permet à IDC de livrer une nouvelle prévision de croissance des dépenses IT sur l'ensemble de l'année. Le cabinet d'études révise ainsi ses chiffres et abaisse la croissance prévue de 3,5% à 2,5%.
Les 3,5% étaient proches des 3,6% observés en 2010, c'était la continuité. Redescendre à 2,5% revient à dépasser la croissance du PIB français mais à marquer le pas par rapport à la forte reprise attendue par tous les prestataires IT.
Dans le détail, IDC France estime que la progression la plus faible sera celle du matériel, avec +1,3%, les services seraient à +2,4%, les logiciels à +4%. Loin des espoirs de forte reprise, par la croissance et par des hausses de prix, entrevus par le Syntec Numérique.
IDC France se garde bien de verser dans le catastrophisme. Le cabinet d'étude souligne deux points. D'abord, la crise actuelle n'est en rien comparable à celle de l'automne 2008, répercutée sur l'année 2009. Cette dernière a connu une vraie récession, de -7,5% des dépenses informatiques des entreprises. Ensuite, observe IDC, 10% seulement des entreprises interrogées ont révisé à la baisse leurs plans d'investissements informatiques. Ce qui ne devrait pas entraîner, en l'état actuel des réponses des DSI, de récession pour 2012.
Le numérique transforme le rôle des directions marketing, selon IBM
IBM vient de publier les résultats d'une étude dédiée aux directions marketing. Réalisée par l'Institute for Business Value de Big Blue, l'enquête Global CMO Study 2011 a été menée auprès de plus de 1 700 directeurs marketing, répartis dans 64 pays et 19 industries. Une centaine de directeurs marketing ont été interrogés en France. « Le numérique est une réalité dans les métiers du marketing, et ce, dans un contexte en profonde mutation », a affirmé Didier Barbé, vice-président marketing et communication d'IBM France, à l'occasion d'un point presse. « Le volume des données, la multiplicité des canaux de commercialisation, les innovations technologiques et l'arrivée de la génération Y ont transformé la fonction. Cette étude a été conduite pour mieux comprendre l'évolution des rôles de chacun dans les entreprises. »
Le document publié par IBM révèle, dans un premier temps, que les directeurs marketing sont conscients des défis auxquels ils sont confrontés et reconnaissent également évoluer dans un monde plus complexe et plus incertain. En France, 85% d'entre eux prévoient un niveau de complexité élevé à très élevé dans les 5 ans à venir. Mais 25% ne se sentent pas prêts à y faire face. En France, 81% des répondants estiment manquer de préparation face l'explosion des données et près des 3/4 soulignent la nécessité d'investir dans la technologie et de mettre en place des stratégies pour exploiter au mieux l'énorme volume d'informations disponible.
Le choix élargi des canaux (e-commerce) et des périphériques (smartphones, tablettes) constitue le deuxième facteur auquel les directions marketing sont le moins en ordre de marché ( 78% des répondants en France, et 65% dans le monde). En outre, 72% des responsables marketing de l'Hexagone (et 68% dans le monde) ne seraient pas en mesure de faire face à l'influence des réseaux sociaux. Enfin, une proportion quasi équivalente ( 71% en France et 63% dans les autres pays) indique éprouver des difficultés face à la globalisation et à l'arrivée des jeunes générations qui bouleversent l'accès à l'information et les habitudes de consommation.
Recentrer le marketing sur l'individu
Pour être davantage réactif face à ces mutations, l'étude révèle trois enseignements. En premier lieu, les responsables marketing pourront apporter de la valeur au consommateur en se recentrant sur l'individu et en explorant des canaux numériques tout en protégeant l'information. En France, ils s'appuient encore sur des sources classiques telles que les études de marché et l'analyse comparative de la concurrence pour prendre leurs décisions stratégiques mais peu d'entre eux exploitent les données qui circulent sur les canaux numériques. Seulement 30% d'entre eux utilisent par exemple les blogs comme source d'information dans la prise de décisions.
Fidéliser le client de façon continue
Le deuxième axe consiste à favoriser l'intimité client dans la durée. Les responsables marketing reconnaissent le changement qui s'opère dans la manière dont ils conversent avec les consommateurs. Ils estiment que dynamiser les relations et interagir de manière continue avec leurs clients tout en développant la lisibilité de la marque et de leurs valeurs permettrait de favoriser l'intimité dans la durée. Néanmoins, l'étude révèle que la majorité des directeurs marketing utilise encore les informations liées aux transactions plutôt que celles liées à l'expérience client.
Enfin, l'enquête insiste sur la mesure de la performance pour étendre l'influence des directions marketing. Elle montre que les outils de mesure utilisés pour évaluer l'efficacité des actions marketing sont en train d'évoluer. 62 % des directeurs marketing en France estiment que le retour sur investissement des dépenses marketing sera le critère de succès numéro un d'ici 2015.
Didier Barbé, vice-président marketing et communication d'IBM France. Crédit photo : IBM France
(...)
< Les 10 documents précédents | Les 10 documents suivants > |