Flux RSS

108538 documents trouvés, affichage des résultats 5731 à 5740.
< Les 10 documents précédents | Les 10 documents suivants > |
(06/12/2010 16:36:16)
Moneo tombe dans le giron d'un fond d'investissement
Les actionnaires historiques de BMS se répartissent en trois blocs : le secteur bancaire (BNP-Paribas, Banques Populaires, Caisse d'Epargne, CIC, Crédit Agricole, HSBC, LCL, Crédit Mutuel, La Banque Postale, Société Générale), le secteur des transports publics (SNCF et RATP) et France Télécom. Simple porte-monnaie électronique autonome sur une carte à puce distincte, le système n'a pas cessé d'évoluer et de se repositionner : fonctionnalité embarquée sur des cartes bancaires classiques, en complément de cartes multiservices (comme pour payer sa cantine avec une carte d'étudiant), etc. Le manque de succès du système Moneo a sans doute incité les actionnaires historiques à jeter l'éponge.
Remplacer la monnaie pour les petits paiements
A la base, le système semble pourtant être une bonne idée : il s'agit d'éviter les échanges de pièces et de billets, notamment pour les très petites sommes. La manipulation des espèces est en effet fastidieuse. Elle implique en plus, pour le commerçant, de disposer d'une encaisse pour rendre la monnaie et conserver les paiements. De ce fait, elle est, enfin, génératrice de risques (détournements par le personnel, vols, pertes, erreurs de décomptes...).
Pour éviter les échanges télématiques coûteux entre banques et commerçants, comme avec les cartes bancaires classiques, le porte-monnaie électronique contient une certaine somme d'argent (chargée par une carte classique via un terminal comme un publiphone ou distributeur automatique de billets) qui peut être débitée par le porteur sans frais pour celui-ci, exactement comme s'il emportait des espèces dans un porte-monnaie classique, mais sans avoir à se préoccuper d'avoir de la monnaie.
Un système boudé par les commerçants
Or, le premier problème est que, justement, le coût du système est porté essentiellement par le commerçant qui se retrouve à devoir payer des commissions bancaires sur des petits montants, ce dont il n'a pas à souffrir avec des espèces. La rentabilité est limitée, étant donnée que l'encaisse reste obligatoire tant que Moneo n'est pas le seul système possible de paiement. Côté utilisateurs, les cartes spécifiques (téléphone, parking...) ont creusé leurs sillons tandis que les cartes bancaires classiques sont de plus en plus utilisables pour des montants faibles, notamment sur Internet. Enfin, d'autres systèmes plus adaptés (comme Paypal) se sont imposés dans les transactions entre particuliers qui ne peuvent pas se faire en espèces. La place pour Moneo s'est donc réduite comme peau de chagrin.
En perdant ses actionnaires historiques qui, tous, étaient intéressés au succès du système et disposaient d'une force de frappe importante, Moneo perd sans doute le dernier espoir de s'imposer. Du moins comme porte-monnaie électronique généraliste.
Crédit photo : D.R.
Amazon Web Services lance Route 53 DNS
Progressivement, Amazon Web Services étoffe son offre cloud. Aujourd'hui, l'éditeur lance Route 53 en version bêta (en référence au port 53, attribué en général au DNS), une offre de serveur DNS disponible sur EC2, mais aussi sur S3 (capacité de stockage) d'Amazon. Ce mode hébergé est facturé à l'utilisation, en fonction du nombre de requêtes DNS traitées. Mais AWS annonce un package pour cette version bêta, 1 dollars par mois plus 0,50 dollars par million de requêtes, après le premier milliard de demandes. Le service Route 53 reprend les mêmes attributs qu'un serveur DNS traditionnel avec la création d'une zone hébergée, capable de gérer aussi bien les adresses IP V4 et V6.
Cette annonce intervient quelques jours après la décision d'Amazon de suspendre le site Wikileaks de son cloud EC2. Mauvaise publicité pour Route 53 ou gestion hasardeuse du marketing, il est probable que le site d'informations sensibles aurait souscrit à ce service.
(...)(06/12/2010 15:34:26)Nvidia veut multiplier les coeurs dans les tablettes et smartphones
« En 2011, les processeurs double coeur seront la norme, et les quatre coeur devraient apparaître sur ces machines [smartphones et tablettes tactiles, NDLR] dans un proche avenir, » a déclaré Nvidia. Selon l'entreprise, « l'ajout de coeurs permettra une exécution plus rapide des tâches et améliorera les performances des tablettes et des smartphones tout en préservant la vie de la batterie. » Les puces multicoeurs sont une alternative pour accroitre les performances tout en évitant d'augmenter la fréquence d'horloge du processeur. Mais ce supplément de puissance peut aussi conduire à une dissipation excessive de chaleur et augmenter la consommation d'énergie.
Plus de coeurs pour éviter d'augmenter la fréquence
Il semble cependant que les appareils mobiles vont suivre la même tendance que les ordinateurs portables et les PC de bureau. Des fondeurs comme Intel et Advanced Micro Devices (AMD) n'ont pas cessé d'ajouter des coeurs à leurs processeurs pour améliorer les performances des ordinateurs - duo, quadri ou six coeurs - en prenant soin de ne pas trop entamer la consommation en énergie. Nvidia commercialise déjà une puce double coeur Tegra 2 pour tablettes tactiles construit autour d'un processeur dual-core Arm et dun noyau graphique GeForce. Le fondeur avait déclaré qu'il livrerait une version de cette puce pour smartphones au quatrième trimestre de cette année. Qualcomm a commencé à commercialiser son premier processeur dual-core MSM8660 et projette de livrer bientôt les prototypes d'une puce dual-core QSD8672 encore plus rapide. Texas Instruments a fait savoir pour sa part qu'elle pourrait livrer sa puce dual-core OMAP4430 plus tard cette année. Toutes ces puces pourraient être intégrées à des appareils mobiles dès l'année prochaine. Marvell a même pris de l'avance sur ses rivaux, annonçant en septembre une puce triple-core pour tablettes graphiques qui comporte deux noyaux tournants à 1,5 GHz, plus un troisième noyau tournant à 624MHz, optimisé pour le calcul de faible puissance. Tous ces processeurs reposent sur des licences technologiques Arm. Pour l'instant, aucun fondeur n'a encore annoncé la sortie de puces quad-core pour mobile (Nvidia n'a pas encore fait de commentaire concernant le lancement d'un tel produit).
Mieux gérer les ressources inexploitées avec la virtualisation
Les experts s'entendent pour dire que, hormis l'ajout de coeurs, il existe d'autres techniques pour améliorer les performances des appareils mobiles, avec le souci d'économiser aussi la batterie. La virtualisation, par exemple, permet de consolider les applications sans gaspiller les ressources, ce qui pourrait limiter un certain nombre de cycles d'horloge qui seraient autrement nécessaires pour exécuter ces tâches. Les experts conviennent aussi que les développeurs d'applications pour smartphones et tablettes tactiles sont confrontés à un vrai défi : écrire des programmes capables de tourner sur plusieurs processeurs, coprocesseurs et accélérateurs matériels. De nombreuses applications ne parviennent pas à tirer partir des accélérateurs, car elles ont été écrites pour être exécutées sur un nombre limité de noyaux intégrés à d'anciennes puces. Ils doivent donc réécrire beaucoup de lignes de code pour exploiter correctement ces nouvelles puces. Dans son document, Nvidia affirme que sa puce Tegra 2 permet de distribuer et de partager certaines tâches. L'entreprise a également déclaré qu'elle adapte son framework Cuda, un ensemble d'outils conçus pour exploiter les capacités de traitement parallèle des processeurs et des unités de traitement graphiques, pour augmenter les performances système sur les téléphones mobiles. Potentiellement, cette technologie pourrait améliorer l'affichage des applications web/vidéo et les jeux sur les smartphones et les tablettes.
(...)(06/12/2010 15:36:43)
Neutralité du Net : Le président de la FCC ouvert à une tarification à l'usage
Dans le cadre du débat portant sur la neutralité d'Internet, Julius Genachowski, président de la FCC (Federal Communications Commission), le régulateur américain des télécommunications, a dévoilé la semaine dernière certains éléments de sa prochaine proposition. Soumise aux autres membres de la commission, celle-ci sera susceptible d'être modifiée d'ici le vote prévu le 21 décembre prochain. Dans sa communication, Julius Genachowski a surtout parlé des grands principes et s'est montré plus discret sur les détails, soulignent nos confrères de Network World. Il a cherché à fournir des éléments pour chacune des parties prenantes, mais n'a guère donné de détails sur la façon dont il compte régler les désaccords. Par exemple, il a indiqué que sa proposition s'appuyait sur un ensemble de dispositions de la législation relatives aux communications, mais qu'elle ne reclassait pas le haut-débit comme un service de télécommunications placé sous le Titre II [du Telecommunications Act de 1996].
Le problème sur ce point, c'est que pour renforcer significativement la réglementation sur la neutralité d'Internet, la FCC devrait probablement reclassifier le haut-débit en tant que service de télécommunications. Or, la cour d'appel de Washington D.C. a statué, au printemps dernier, que la FCC n'avait pas le pouvoir de réglementer la gestion du réseau par les FAI dans son cadre légal actuel. Cela ne laisse de fait que deux options à l'agence indépendante créée par le Congrès des Etats-Unis (et dont le rôle équivaut à celui de l'Arcep en France). Elle peut attendre que les sénateurs américains légifèrent sur la neutralité d'Internet, ou bien elle peut changer la classification des services haut-débit en les faisant passer de la catégorie services d'information à celle de services de communication, ce qui lui donnerait le pouvoir d'imposer certaines règles communes aux FAI.
Des différences fondamentales entre sans-fil et filaire
Comment la FCC peut-elle encore agir sur le sujet ? Julius Genachowski s'est d'abord déclaré en faveur d'une reclassification qui dispenserait les FAI de la plupart des régulations traditionnellement appliquées aux opérateurs de téléphonie filaire. Toutefois, le projet du président de la FCC a déclenché une forte opposition de la part du secteur industriel et du Congrès et beaucoup se sont alors tournés vers ce dernier pour trouver des solutions. Lors de son intervention, en début de semaine dernière, Julius Genachowski n'a pas précisé comment il comptait régler ce problème. Il a simplement indiqué qu'il était convaincu qu'il existait une base juridique solide pour cette approche.
De même, il est resté vague sur la façon dont la FCC allait réguler le secteur du haut-débit mobile. Il a reconnu l'argument des opérateurs de téléphonie sans-fil selon lequel les réseaux haut-débit fixe et mobile ne peuvent pas être régulés de la même manière car ils sont fondamentalement différents. Mais le président n'a pas non plus retenu une approche non-interventionniste à propos du sans fil, puisqu'il a indiqué que la proposition devrait requérir des opérateurs du sans fil qu'ils renseignent leurs clients sur leurs pratiques de gestion du réseau et du trafic et qu'ils adoptent une règle de « non blocage ». Le président de la FCC a ajouté que l'agence de régulation contrôlerait de près le développement du marché du haut-débit mobile et serait prête à intervenir, si cela s'avérait nécessaire, en cas de pratiques anti-concurrentielles ou anti-consommateurs. [[page]]
Les industriels du sans-fil, regroupés au sein du CTIA, se sont montrés encourageants, tout en restant prudents, à la suite de la déclaration du président de la FCC. Ils sont satisfaits que Julius Genachowski ne veuille plus reclassifier les acteurs du haut-débit dans la catégorie service de télécommunication. Ils apprécient également de l'entendre reconnaître les différences fondamentales entre la gestion des réseaux sans-fil et filaires. En revanche, le groupement a affirmé que toute nouvelle règle adoptée pour l'industrie du sans-fil devrait être réexaminée d'ici deux ans.
Julius Genachowski a souligné que les FAI avaient besoin d'une flexibilité significative pour gérer leur réseau, par exemple, pour prendre en charge un trafic qui pourrait lui être dommageable ou qui ne serait pas souhaité par les utilisateurs, et pour s'attaquer aux effets d'un engorgement.
Une possible tarification à l'usage
La partie la plus délicate a toujours été la façon de traiter les problèmes d'engorgement. Ainsi, Comcast avait été critiqué en 2008, lorsqu'il s'était trouvé asphyxié par l'application de partage de fichiers peer-to-peer BitTorrent. Bien que Julius Genachowski affirme qu'il ne veut pas donner aux FAI le droit de ralentir le trafic des sites web ou les applications qui utiliseraient beaucoup de bande passante, il a en revanche indiqué qu'il était ouvert à la tarification à l'usage qui conduirait à facturer davantage aux utilisateurs si leur consommation dépassait une certaine capacité de bande passante. « La gestion raisonnable du réseau constitue une partie importante de la proposition, étant entendu que la notion de « raisonnable » tiendra compte de la technologie de réseau et de l'architecture concernées, a-t-il expliqué. Notre travail a aussi mis en évidence l'importance des initiatives pour promouvoir l'investissement dans le réseau et l'utilisation efficace des réseaux, ce qui incluent des mesures pour ajuster la tarification au coût, par exemple avec la tarification à l'usage ».
Même si le président de la FCC a fourni quelques indices sur ce qu'il prévoit de mettre dans sa proposition finale, il en a finalement dit assez peu. Il faudra donc en attendre la version définitive prévue pour le 21 décembre. Mais, qu'elle que soit la teneur de celle-ci, elle ne bénéficiera probablement pas du vote du Républicain Robert McDowell, membre de la FCC. Ce dernier n'est pas seulement opposé à ces mesures, mais il accuse également Julius Genachowski de « pousser un petit groupe choisi d'acteurs de l'industrie vers un choix qui s'apparente davantage à de la coercition qu'à un consensus ou un compromis ».
Illustration : Julius Genachowski, président de la FCC (crédit photo : FCC)
(...)
12 millions d'abonnés haut débit dans l'OCDE
Le nombre d'abonnements au haut débit fixe a progressé de 12 millions d'abonnements entre décembre 2009 et juin 2010 au sein des pays membres de l'Organisation de coopération et de développement économiques (OCDE). Selon les derniers chiffres publiés ce lundi 3 décembre, la France compterait plus de 20,25 millions d'abonnements.
L'ADSL reste la technologie la plus répandue en matière de connexion à Internet en haut débit, avec 58% de l'ensemble des lignes (soit plus de 171 millions d'abonnements) contre 29% pour le câble et 11,5% pour la fibre optique. Toutefois, l'OCDE précise que cette dernière progresse mieux que les deux autres. Au Japon, par exemple, 55% des connexions au haut débit se font par la fibre.
Facebook refond sa page profil
Samedi dernier, Mark Zuckerberg a présenté la dernière évolution de la page profil de son réseau social Facebook à l'occasion d'une interview accordée au magazine d'actualités américain « 60 minutes ». Désormais, une liste de renseignements biographiques apparaissent sous le nom de l'utilisateur en haut de la page, y compris des détails tels que l'emploi de la personne, sa ville natale, son état matrimonial, où elle est allée au collège, quelle langue elle parle et sa date de naissance. Derrière cela, apparaissent une série des cinq photos les plus récentes que les utilisateurs peuvent afficher sur leur profil. Il existe également une nouvelle catégorie de sport dans les « intérêts », où les utilisateurs peuvent renseigner sur leur activité favorite, les équipes et les athlètes.
Bien que dans son entrevue enregistrée avec Mark Zuckerberg, le journaliste Lesley Stahl ait déclaré que les téléspectateurs de l'émission du dimanche soir seraient les premiers à voir les évolutions de Facebook, l'annonce de la refonte a en fait débuté tôt dimanche matin dans un clip promotionnel sur le site de CBS News. Les évolutions du site ont également été annoncés tard dans la journée par Josh Wiseman, ingénieur logiciel chez Facebook, sur le blog de l'entreprise. Reste que l'interview télévisée était beaucoup plus centrée sur la façon dont Facebook était devenu ce qu'il est, sa culture, les questions liées à la vie privée des utilisateurs, et ses efforts pour faire des percées dans le secteur de la recherche, que sur sa refonte à proprement parler. Le fondateur du réseau communautaire a déclaré que lui et ses amis de l'Université Harvard avaient conçu le projet comme un outil de communication destiné aux étudiants et qu'ils n'avaient jamais imaginé que leur création « mènerait tout Internet dans la direction des réseaux sociaux ».
Publier plus de photos en les mettant en évidence
Une dizaine de designers ont travaillé à la refonte d'une "war room", où une horloge indique le temps écoulé qu'il leur reste pour compléter la mise à jour, d'après "60 Minutes" qui a montré les évolutions du site en utilisant la page de Mark Zuckerberg (ce dernier étant un fan des Yankees, d'après la nouvelle catégorie de sport qui révèle ses intérêts pour le base-ball). Le relooking des pages profil, qui avait été attendu, est déjà en cours de déploiement auprès des 500 millions d'utilisateurs qui souhaiteraient changer dès maintenant le design de leurs pages. Ceux qui choisissent d'attendre trouveront leurs pages automatiquement renouvelées au cours des prochaines semaines. Visuellement, le nouveau design permet aux utilisateurs de poster davantage de photographies sur leur page et de les afficher plus en évidence, y compris les photos d'amis. Les utilisateurs seront désormais également en mesure de mettre en évidence les personnes qui sont importants pour eux, comme leur famille, amis ou meilleurs coéquipiers, expose le blog de Facebook. De nouveaux groupes d'amis ou des listes d'amis existantes font aussi partie de la refonte. Leurs intérêts et activités seront davantage mis en avant suite aux évolutions apportées aux pages profil du réseau social.
Les pour et les contre
Ces améliorations, comme tous les autres aspects de Facebook, visent en partie à attirer les annonceurs et les marchands qui voient les utilisateurs du site comme une mine d'informations. Mais elles sont également destinées à faciliter son utilisation pour les gens qui souhaitent trouver des informations sur des amis et à fournir « une expérience visuelle plus captivante. » Comme toujours, suite à tout changement concernant Facebook, les utilisateurs n'ont pas tardé à exprimer des critiques ou du soutien. « Horrible design, à l'encontre de près de tous les principes de conception du web », a écrit Shawn Hesketh qui, sur sa page Facebook, s'est identifié comme étant le propriétaire des dessins et modèles LeftLane à Houston. De son côté, Christopher Bradshaw de Liverpool, en Angleterre, a dénoncé des changements « injustes » parce qu'il utilise Facebook à des fins commerciales y compris le paiement de la publicité sur le site. Les changements modifiant des annonces et promotions sont très légers, a-t-il réagi, suite à l'annonce publiée sur le blog de Josh Wiseman.
« J'aime cette nouvelle page profil ! », a pour sa part estimé Craig Gunnels, de San Antonio (Texas). D'autres, en réponse au billet de Josh Wiseman ont fait remarquer que certaines personnes n'aiment tout simplement pas le changement et qu'elles s'adapteraient au nouveau design avec le temps. Certains ont exprimé leur confusion parce que leurs pages profil n'avaient pas changé. Bien que dans l'émission "60 Minutes", Lesley Stahl ait indiqué que la refonte serait déployée ce lundi, les utilisateurs ont été en mesure de réaliser les mises à jour le dimanche. Ceux qui veulent changer l'apparence de leurs pages peuvent le faire immédiatement en allant sur une page qui explique les changements via un lien situé en bas qui permet d'effectuer la mise à jour dès à présent.
(...)
Tsubame 2.0, un supercalculateur plus rapide et pas plus gourmand en énergie
Premier supercomputer pétaflopique japonais, Tsubame 2.0, classé quatrième machine la plus puissante du monde en novembre au Top 500 des superordinateurs, affiche un rendement de 2,4 pétaflops, soit 15 fois la puissance de son prédécesseur, le Tsubame. Comme ce dernier, cette version 2.0 tourne sur un mélange de CPU et de GPU très adaptés pour effectuer rapidement des opérations similaires sur de grandes quantités de données. Ils sont en particulier beaucoup plus efficaces que les processeurs pour résoudre des problèmes de dynamique moléculaire, des simulations physiques et pour le traitement d'image. Ils permettent aussi à la machine de consommer moins d'énergie. Le mérite en revient à Satoshi Matsuoka, directeur du département Global Scientific Information and Computing Center de l'université japonaise, lequel, pendant la planification du supercalculateur, avait demandé à ses chercheurs de construire une « belle machine qui ne consomme pas plus d'électricité. » L'université dépensait déjà environ 1,5 million de dollars par an pour alimenter le supercomputer existant et ne voulait pas voir sa note augmenter davantage. «Nous ne sommes pas limités par l'argent, ni par l'espace, ni par nos connaissances ou nos compétences. Notre limite, c'est la consommation d'énergie, » avait-il déclaré.
Un travail réalisé avec Hewlett-Packard
Pour construire le supercalculateur, le directeur avait sollicité Hewlett-Packard, Nvidia et à d'autres entreprises auxquelles il avait fait part de ses spécifications et de ses choix de conception. En 2009, pendant l'International Supercomputing Conference, celui-ci rencontre notamment Edward Turkel, directeur du marketing des produits HPC chez HP. « Nous avons parlé des exigences demandées pour réaliser ce nouveau système, » se souvient le responsable de HP. « Évidemment, nous devions construire un supercalculateur de très haute performance, de plusieurs pétaflops, avec une performance soutenue supérieure à 1 pétaflops. Mais il fallait aussi réaliser une machine de petite taille qui s'adapte au centre de calcul et peu gourmande en énergie !», a-t-il ajouté. «Nous nous sommes un peu grattés la tête pour dire finalement : Ça va être intéressant ! »
Satoshi Matsuoka, directeur du département Global Scientific Information and Computing Center de l'université de Tokyo
Association de puces Intel et Nvidia
Quand Satoshi Matsuoka a présenté les exigences du Tokyo Tech à Edward Turkel, celui-ci rappelle que HP avait déjà travaillé avec Nvidia sur la conception d'un serveur haute performance utilisant des GPU. « Une fois connues les spécifications, la conception a été affinée afin de répondre aux exigences de puissance et d'espace. Au final, nous avons construit un supercalculateur de 1408 noeuds, avec au coeur de chaque noeud, un serveur HP ProLiant SL390 doté d'un processeur Intel Xeon et des GPU Nvidia Tesla. » À l'intérieur de chacun des 1408 noeuds, il y a trois puces Tesla, chaque puce abritant 448 coeurs soit un total de près de 1,9 million de coeurs graphiques. Ce sont ces GPU qui donnent au Tsubame 2.0 l'essentiel de sa puissance. La machine a été classée au quatrième rang du Top 500 avec une performance soutenue maximale de 1,2 pétaflops (soit 1,2 million de milliards d'opérations à virgule flottante par seconde) et le deuxième au Green 500 pour son efficacité énergétique de 958 Mégaflops par watt. C'est le seul ordinateur à figurer dans les cinq premiers dans ces deux classements très recherchés.
Aujourd'hui, le Tsubame 2.0 est terminé et fonctionnel. L'université a ouvert son accès à des entreprises et des organismes qui souhaitent utiliser une partie de sa capacité. Le temps de calcul peut être acheté via le site Internet de l'université.
Wikileaks appelle les internautes à créer des sites miroirs
« Wikileaks subit actuellement de lourdes attaques », a confirmé le site et d'ajouter « afin de rendre impossible l'élimination du site sur Internet, nous avons besoin de votre aide. »
Le site demande aux personnes, qui disposent de serveurs Unix avec un surplus de ressources, de répondre à son appel. L'hébergement de l'ensemble du site Wikileaks « ne devrait pas prendre plus de quelques Go à l'heure actuelle » souligne-t-il. Les sites miroirs sont d'autres sites web qui publient les mêmes informations que le site d'origine et sont mises à jour automatiquement chaque fois que le site original ajoute de nouveaux contenus. Wikileaks espère que ces répliques assureront la survie de la masse des documents vidéos et autres données divulgués.
La semaine dernière, le site web au coeur de la controverse n'était plus accessible par son nom de domaine WikiLeaks.org. EveryDNS.net avait supprimé le nom de domaine suite à des attaques répétées par déni de service contre Wikileaks. Le prestataire de services américain a expliqué qu'il n'avait donné qu'un avis préalable. Cette suppression intervient quelques jours seulement après qu'Amazon Web Services a suspendu l'hébergement de WikiLeaks sur ses serveurs pour avoir enfreint les règles d'utilisation. Le sénateur Joe Lieberman, avait également demandé à Amazon de stopper l'hébergement de Wikileaks.
(...)
Les collectivités territoriales investissent dans les services en ligne
La dernière étude de Markess (*) sur les collectivités territoriales porte sur les logiciels et services. Globalement, ils représentent une dépense de 2,4 milliards d'euros en 2010. Elle devrait atteindre les 2,6 en 2012, avec un taux de croissance annuel moyen de 4,1%. Une dépense considérée hors dépenses matériels et hors dépenses de personnels.
Le budget informatique d'ensemble (matériel + personnel + logiciels + externalisation), lui, représente 1,9% de la dépense totale des collectivités territoriales, selon la DGCL (**). Il augmentera entre 1 et 5% d'ici 2012. Parmi les collectivités, seuls les conseils généraux affichent une prévision de budget en baisse dans ce domaine. D'autres collectivités devraient laisser leur budget stagner : celles de plus de 50 000 habitants. Les régions auront une croissance comprise entre 1 et 5%. Deux types de collectivités envisagent des croissances supérieures à 5% : les intercommunalités et les communes de moins de 10 000 habitants.
L'affectation de ces budgets évolue. Surtout pour la partie « logiciels et services » qu'étudie Markess. Le cabinet a demandé à son panel de lister les priorités d'investissement, en distinguant la gestion interne de celle externe. Pour la première, arrivent en tête : la dématérialisation des documents, leur conservation (GED-ECM), le collaboratif, le pilotage, la certification électronique et la signature. Ces choix dépendent aussi des moyens dont disposent ces collectivités. Les communes de moins de 10 000 habitants, les syndicats regroupant les moyens informatiques de plusieurs collectivités, les intercommunalités semblent les plus propices aux investissements.
C'est bon pour l'image
En externe, les collectivités territoriales favorisent, par ordre décroissant : les sites webs et les fonctionnalités associées, les téléservices partiels, les sites webs informationnels, les paiements en ligne et les comptes citoyens. Globalement, ils favorisent les services en ligne dématérialisés, importants à la fois pour la modernisation des services, l'image de la collectivité, un meilleur service rendu aux usagers.
Parallèlement, Markess remarque une évolution dans la responsabilité des budgets IT des collectivités territoriales. Si la DSI pilote 44% des projets, les DGS (Directeur général des services) sont cités dans 38% des cas, les responsables métiers dans 38%. Ce qui montre à la fois, le poids de DSI structurée dans nombre de collectivités, celui des DGS qui ont bien un rôle de décision en matière IT, celui des responsables métiers. En fait, les collectivités territoriales ont tendance à connaître les mêmes priocessus que les entreprises privées. Autre phénomène, celui de la mutualisation et des échanges. 36% des collectivités interrogées par Markess mutualisent des investissements avec d'autres collectivités, 24% mutualisent leurs achats informatiques entre elles, 20% mutualisent des initiatives avec l'Etat, 11% avec un syndicat. Actuellement, cette mutualisation concerne évidemment les télécommunications et les plates-formes de dématérialisation. D'ici 2012, relève Markess, elle devrait aborder de nouveaux sujets : le contrôle de légalité, l'archivage à valeur probante, les logiciels métier, le collaboratif, des plates-formes à destination des citoyens.
Cette double ouverture, vers de nouveaux services dématérialisés et vers plus de mutualisation, ouvre de nouvelles perspectives aux prestataires externes. Une collectivité sur deux sollicite des prestations externes pour : l'assistance à maîtrise d'ouvrage, l'acquisition de logiciels et la formation. Le partage de la décision entre plusieurs directions, favorise également ce recours aux prestataires externes et montre la nouvelle maturité des collectivités territoriales en matière IT.
(*) 165 responsables interrogés dans les collectivités territoriales, 28 chez des prestataires.
(**) DGCL : Direction générale des collectivités locales, elle dépend du Ministère de l'intérieur.
(...)(06/12/2010 11:10:58)Spécialiste des TIC, Christiane Féral-Schuhl devient bâtonnier de Paris
Christiane Féral-Schuhl collabore régulièrement avec les titres du groupe IT News Info depuis de nombreuses années, notamment via des interventions en conférences, des tribunes et des avis d'expert. Nous l'avions reçue en interview vidéo pour la sortie de la cinquième édition deCyberdroit (photo ci-dessus), la Bible du droit de l'informatique. La sixième édition de ce livre vient d'ailleurs de sortir.
Précisons une particularité des élections au Bâtonnat : le nouvel élu ne prend toutes ses fonctions qu'au bout d'un an afin de se préparer à remplir son rôle aux côtés de son prédécesseur.
< Les 10 documents précédents | Les 10 documents suivants > |