Flux RSS
Applications métier
1671 documents trouvés, affichage des résultats 291 à 300.
| < Les 10 documents précédents | Les 10 documents suivants > |
(10/06/2010 09:44:13)
Le Crédit Lyonnais choisit Igor pour analyser l'implantations de ses agences
Avant 2006, les implantations commerciales et la dynamique associée étaient gérés dans des applicatifs géo-marketings très verticaux par des cellules locales. A partir de la fin 2006, une réflexion a débuté pour supprimer ces cellules locales, créer une fonction d'optimisateur de réseau et se doter d'un outil plus moderne. Par ailleurs, il fallait pouvoir définir avec plus de pertinence les objectifs des commerciaux en disposant d'arguments précis.
Le groupe devait aussi disposer d'un outil simple pour décider d'implantations d'agences ou de déménagements en fonction de la population dans la zone de chalandise, de la localisation d'agences concurrentes, des emplacements commerciaux générant du trafic, etc. Il fallait également être en mesure d'expliquer aux équipes la justesse des décisions prises. Bien entendu, le géomarketing s'appuyant sur des données économiques, démographiques et commerciales avec géolocalisation, ces données devaient être mises à jour par un prestataire capable de garantir la fraicheur et la pertinence des informations.
Enfin, il était indispensable que l'outil mis en place soit de type « presse-bouton », très intuitif dans son fonctionnement, afin que les personnes en ayant besoin soient incités à l'utiliser.
Crédit photo : D.R.
[[page]]
Après une réflexion sur la refonte des méthodologies et une étude du marché, LCL a choisi d'implanter Mapinfo Géomarketing Report de l'éditeur Pitney Bowes Business Insight (branche logiciels du groupe Pitney Bowes) pour créer un intranet géomarketing : Igor (Intranet Géomarketing Organisation du Réseau). Au travers d'un simple navigateur, les utilisateurs d'Igor peuvent réaliser toutes sortes d'études et de simulations croisant des cartes, des données démographiques ou économiques ainsi que des données internes à LCL.
A cela, LCL a ajouté, pour modifier les objets d'une carte ou sortir des études ponctuelles plus poussées, Mapinfo Professional.
Toutes les données structurées sont stockées dans une base Oracle. L'ensemble des produits est installé sur un serveur Windows (il faut compter 15 à 20 utilisateurs simultanés par CPU) et est accessible en full web par l'intranet.
Bernard Collier précise : « l'un de nos problèmes a été de limiter les fonctionnalités afin d'éviter que les décideurs passent leur temps à affiner sans cesse leurs études et manipulent leurs données dans tous les sens sans que cela soit justifié par le résultat à obtenir. Il fallait qu'ils disposent d'un outil efficace et efficient. »
Par ailleurs, les données géomarketing, même récentes, restent des études du passé. « Nous avons besoin de conserver des correspondants locaux afin d'avoir des informations sur les potentialités d'une zone en fonction des projets urbains en cours » avertit Bernard Collier. La définition du périmètre s'est opérée mi-2009. Deux mois plus tard, la livraison du produit tel que désiré a été réalisée, la validation prenant deux mois supplémentaires pour une mise en production en décembre 2009 avec un déploiement jusqu'en janvier 2010.
Le bilan du projet est positif. Bernard Collier indique ainsi : « après une montée en puissance, les utilisateurs se connectent aujourd'hui régulièrement, environ une fois tous les deux jours, ce qui correspond à ce que nous voulons. Les équipes peuvent traiter au niveau opportun des informations sans que le siège soit amené à leur transmettre les rapports pas toujours bien accueillis sur le terrain. »
Le coût du projet n'a pas été communiqué. La maîtrise d'ouvrage a consommé environ une centaine d'heures.
CMS unique pour les sites web de France Télévisions
Les sites web du groupe France Télévisions sont gérés par une entité interne dédiée, France Télévisions Services Interactifs. Pour des raisons historiques, les 1000 sites ou sous-site du groupe utilisent des bases techniques très différentes : notamment un CMS maison en java qui gère les plus gros sites (programmes...), du Spip en PHP 4 ou PHP 5 (évènementiels, institutionnels...) et des applicatifs métiers spécifiques (pour la gestion des vidéos notamment). L'ensemble des 1000 sites réalise 8 millions de visiteurs uniques et 30 millions de pages vues par jour.
Le site Sport.FranceTV.fr a été le premier à être refondu sur une nouvelle base technique destinée à être généralisée sur l'ensemble des sites de France Télévision. L'intégration a été opérée par Alterway sur une base Drupal pour un montant non-communiqué. Ce site génère 300 000 visiteurs uniques et 500 000 pages vues par jour, hors évènements tels que Rolland Garros (des pics de 15 millions de pages vues par jour pouvant être alors atteints). Le choix fait devait être capable d'encaisser ce genre d'audiences massives.
Un pilote avant une bascule globale
Ce site a clairement été vu comme un pilote de la nouvelle architecture afin de la valider. L'un des objectifs de la refonte est de disposer d'un CMS unique avec, par conséquent, une harmonisation technique et une mutualisation des outils. La préoccupation majeure des équipes de France Télévision était de gérer le plus en autonomie possible les nouveaux sites et de laisser les équipes de journalistes les plus autonomes également pour gérer l'animation des sites, les anciennes plates-formes supposant généralement des interventions des équipes techniques pour gérer des fonctionnalités avancées.
L'outil devait donc être souple, léger, facilement appréhendable par chaque population d'utilisateurs et s'appuyer sur les compétences des équipes techniques internes : HTML, CSS, LAMP, Ajax, Jquery...
Les journalistes attendaient en priorité la disparition d'un temps de latence parfois important lors de la publication des articles. Le CMS historique gérait en effet le processus de publication en tâches séquentielles à raison d'une publication à la fois, entrainant des latences jusqu'à 30 minutes. Or l'actualité sportive exige de la réactivité. Tous les CMS modernes résolvent ce genre de problème.
Un choix initial pour le PHP/MySQL open-source
Tous les acteurs devaient bien sûr obtenir satisfaction de leurs besoins propres : équipe technique, journalistes, production, exploitation, publicitaires... La charte graphique devait pouvoir être intégrée sans difficulté. Enfin, la technologie de l'outil devait permettre une intégration au sein de l'existant puisque la migration était destinée à se faire par morceaux successifs. Le choix de PHP/MySQL et de l'open-source a constitué un préalable.
[[page]]
Après un premier tri, trois produits ont été examinés en détail par France Télévisions avec l'aide d'Alterway. La grille de comparaison comportait une cinquantaine de critères techniques ou fonctionnels. Typo 3 a été écarté assez rapidement : l'implémentation aurait été très complexe dans le contexte donné. EZ Publish n'avait pas de point bloquant mais son intégration aurait été moins simple que le choix effectivement fait, à savoir Drupal.
Parmi les points importants en faveur de Drupal, l'existence de très nombreux modules (sondages, news flashs...) et la facilité de mise en oeuvre n'ont pas été les moindres. Cependant, un module spécifique a été développé pour les sites de France Télévisions visant à recommander des articles en fonction de celui en train d'être lu par l'internaute. Les critères de recommandation sont cependant simples : la catégorie et les tags manuels.
La compatibilité Akamaï impérative
Techniquement, le système devait aussi être compatible avec l'usage du service de CDN (content distribution network) d'Akamaï, employé par France Télévisions, les caches internes des CMS n'étant pas utilisés. 98% du trafic réseau est ainsi économisé. « Le problème ne se posait pas tellement au niveau des contenus enregistrés en back office par les journalistes, les internautes bénéficiant de l'une des pages d'accueil en cache en fonction d'un cookie de personnalisation, mais dans la prise en compte instantanée des contributions des internautes, ce que nous avons réalisé par un paramétrage chez Akamaï laissant passer les Jquery et l'Ajax » indique Pascal Beynal, chef de projet chez France Télévisions.
Par ailleurs, le site vient s'alimenter en contenus auprès de produits tiers : bannières publicitaires, médiathèque partagée, serveurs de résultats sportifs, flux RSS, SSO commune à tous les sites France Télévisions. Le site destiné aux outils mobiles est pour l'instant créé par un export/import dans un CMS dédié mais ne sera plus, à terme, qu'un modèle de présentation spécifique sous Drupal.
[[page]]
Pour mettre en oeuvre le site pilote, le chef de projet côté France Télévision disposait de développeurs PHP (devenus développeurs Drupal), d'intégrateurs et de graphistes internes ainsi que d'un chef de projet et d'un développeur de chez Alterway.
La première étape a été de créer un cahier des charges grossier durant l'été 2009 puis les détails de l'expression des besoins ont été précisés lors d'ateliers avec les journalistes. Ces réunions ont débouché sur un cahier de spécifications fonctionnelles. Les développements ont débutés en novembre 2009. Enfin, la validation s'est faite à partir de début 2010 en mode « double commande », les articles étant entrés d'abord dans l'ancien système puis dans le nouveau.
« Les journalistes ont désormais la main sur l'ordre des contenus, ceux mis en première page, le type de présentation dans une liste de modèles et les autres éléments d'animation du site (modules de sondage...) alors que, auparavant, l'équipe technique devait souvent intervenir » se réjouit Pascal Beynal. Bien entendu, plusieurs niveaux de droits ont été implémentés sur la plate-forme au sein des journalistes.
Un bilan satisfaisant du pilote
Pascal Beynal prévient cependant : « la mise en oeuvre d'un site en Drupal, si on ne connait pas parfaitement le produit, suppose un accompagnement. Plusieurs échecs ont été relevés au sein de projets similaires dans les médias à cause d'un défaut d'accompagnement. »
Les journalistes ont été formés par la prise en main progressive, au fil de l'eau, et la contamination des bonnes pratiques au sein des équipes tournantes. Les équipes techniques d'exploitation ont, elles, subi une formation de 2 ou 3 jours selon les cas. Le pilote ayant donné satisfaction, la généralisation de la plate-forme va être lancée.
En terme d'architecture, le noyau Drupal va être gardé unique pour l'ensemble des sites afin de faciliter sa maintenance. Drupal est installé en mode multisites pour pouvoir supporter au fur et à mesure des migrations les 1000 sites du groupe, seul le modèle graphique changeant. Chaque site s'appuie cependant sur sa propre base de données MySQL.
(...)
La Marine achève la refonte de son outil de gestion des RH
La Marine Nationale vient de mettre en service son nouveau SIRH, RH@psodie. Basé sur le Noyau Commun Interministériel Ressources Humaines, lui-même une implémentation de SAP, il a été intégré par Bull. En septembre 2008, le projet avait été annoncé pour un montant de 11 millions d'euros. Le coût exact total n'a pas été communiqué. Le projet d'intégration a nécessité plus de 13 000 jours.hommes sur deux ans.
RH@psodie concerne 46 000 marins d'active, 26 000 réservistes, 900 000 anciens marins, 35 bâtiments ainsi qu'une centaine de sites de la Marine nationale, en métropole, outre-mer et à l'étranger. Il remplace de multiples systèmes dispersés. Basé sur le noyau commun SAP, le nouveau SIRH a été intégré par Bull. Toutes les pièces justificatives associées aux données traitées sont systématiquement dématérialisées et gérées dans un coffre fort électronique.
A terme, ce SIRH de la marine convergera avec ceux des autres entités de la Défense Nationale pour constituer un SIRH unique, après de nouveaux appels d'offres.
Crédit photo : D.R. (...)
Boulanger unifie ses références catalogue
Surtout, il distribue plus de 20 000 références de produits sous 150 marques, avec une rotation parfois importante dans certains domaines où les produits changent souvent.
En lien avec SAP et les SI des fournisseurs
La gestion de son catalogue de produits et services virait au cauchemar devant les multiples applications devant utiliser ces données dans de nombreux contextes. Le groupe a donc décidé d'uniformiser et d'unifier un référentiel de produits dans une démarche de MDM (master data management) en utilisant InfoSphere Master Data Management Server for Product Information Management d'IBM.
En amont du système de MDM proprement dit, le référentiel-père est géré dans SAP : références produits, stocks, prix... En aval, le système dialogue avec les SI des fournisseurs pour les mises à jour. Enfin, des enrichissements manuels sont opérés au sein du MDM par des responsables appropriés (notamment en centrale d'achat). Les mises à jour sont répercutées du MDM vers les systèmes connectés et inversement
[[page]]
Des données intégrées et complétées à la main
Le référentiel des produits comporte les caractéristiques techniques et commerciales, des images, des informations structurées ou semi-structurées comme des notations sur une échelle de performance (x étoiles pour positionner une mention technique peu compréhensible du commun des clients)... Sur une famille de produits donné, des informations précisés et similaires sont renseignées, ce qui permet de générer aisément des tableaux de comparaison aussi bien en magasin que sur le web ou dans des documentations diverses.
Comme certains produits ne sont pas présentés en rayon (toutes les déclinaisons et toutes les couleurs d'une gamme par exemple), les tableaux de comparaison permettent également de mentionner aux clients ce qu'il est possible de leur vendre. Les mêmes données sont non seulement utilisées dans les différents SI commerciaux (magasins, web, etc.) mais aussi pour toute la communication (tracts, e-marketing, affiches, étiquettes...).
« Le traitement de l'information produit est devenu un processus métier comme un autre » spécifie Olivier Berrod, responsable informatique au pôle nouvelles technologies de Boulanger.Toutes les données produits ont donc été structurées et uniformisées. Leur traitement est donc plus simple et cohérent mais facilite également la réalisation de produits dérivés comme les tableaux de comparaison.
Le socle a été mis en place avec quelques pilotes en terme de familles de produits et d'applications de 2005 à 2007. En 2008, Boulanger a généralisé le déploiement, l'intégration multicanal ayant été intégrée en 2010. Dans les années à venir, Boulanger souhaite intégrer le rich media (des vidéos des produits par exemple) et les réseaux sociaux.
Le coût du projet n'a pas été mentionné.
Microsoft admet ne pas communiquer sur toutes les failles de sécurité
« Microsoft communique un numéro de Common Vulnerabilities and Exposures (CVE) unique lorsque plusieurs failles sont concernées par la même vulnérabilité, visées par à un même vecteur d'attaque et une manoeuvre de contournement identique. Si l'ensemble de ces bugs partagent les mêmes propriétés, alors ils ne sont pas déclarés séparément, » a expliqué Mike Reavey. Cette absence de divulgation de correctifs par Microsoft a été dévoilée au début du mois par Core Security Technologies, laquelle a mis en évidence trois patchs « muets » dans les correctifs MS10-024 et MS10-028 qu'elle a décortiqué. Le bulletin de sécurité MS10-028 concernait une faille qui exposait l'utilisateur de Microsoft Visio à une attaque visant à saturer la mémoire tampon pour prendre le contrôle du système. A l'époque, l'éditeur n'avait pas signalé les autres bugs patchés en même temps au motif que «le vecteur d'attaque était exactement le même, et la gravité tout à fait identique. Du point de vue du client, la même solution a été appliquée, à savoir ne pas ouvrir de documents Visio à partir de sources non fiables », a déclaré Mike Reavey à Webwereld, filiale d'IDG, lors d'une interview.
Adobe a également gardé le silence sur certains correctifs de vulnérabilité. Pendant la conférence de Microsoft, Brad Arkin, responsable de la sécurité et de la confidentialité des produits chez Adobe, a admis que l'éditeur n'attribuait par de numéros CVE à des bogues que l'entreprise identifiait en interne. L'éditeur estime que ces mises à jour sont des « améliorations de code», a déclaré Brad Arkin. Les numéros CVE ne sont utilisés que pour les bugs activement exploités ou qui ont été signalés par des chercheurs extérieurs.
[[page]]
Le fait de se taire sur les mises à jour de sécurité n'est pas sans conséquence. Les éditeurs et les chercheurs en sécurité ont utilisé des chiffres CVE pour évaluer la sécurité des différents systèmes d'exploitation et des applications. Lors de la conférence de presse, Microsoft a montré une diapositive comparant le nombre de mises à jour de sécurité réalisées pour UbuntuLTS, Red Hat Enterprise Linux 4, OS X 10.4 ainsi que pour Windows Vista et Windows XP. Dans une autre diapositive, elle a montré celles effectuées pour SQL Server 2000, SQL Server 2005, comparée à une base de données anonyme concurrente.
Mike Reavey admet que cette comptabilité des failles de vulnérabilité est imparfaite, mais soutient que, comme outil de comparaison de base, cela a tout de même un sens. « On peut mesurer la sécurité de plusieurs manières. L'estimation de la vulnérabilité par le comptage des bugs en est un, et il n'est pas parfait. » La comparaison du nombre de vulnérabilités par ligne de code de logiciel est un autre indicateur.
S'il fait valoir que ces décomptes sont des moyens utiles pour comparer les produits entre fournisseurs, il a aussi minimisé l'enjeu du calcul des vulnérabilités, le qualifiant de méthode «comptable» qui a, selon lui, essentiellement pour effet de détourner les chercheurs de leur fonction de corriger les bugs. « Quand une faille est signalée, l'entreprise préfèrerait travailler à optimiser un outil de recherche capable de traiter 200 bogues liés. Techniquement, le code peut contenir 200 vulnérabilités, mais « en modifiant une ligne de code, vous perdez parfois la possibilité de corriger 200 problèmes potentiels par fuzzing. Est-ce que cela compte pour une ou pour 200 vulnérabilités ? Je ne sais pas vraiment. Mais si nous passons du temps à tenir une comptabilité exacte, c'est autant de temps en moins pour trouver la solution pour protéger nos clients, » a t-il déclaré.
(...)(26/05/2010 10:45:59)CA Nord de France adapte sa démarche commerciale aux attentes de ses clients
A l'invitation de SAS, Jean-Luc Catherine, DGA du Crédit Agricole Nord de France, et David Zielinski, responsable du pôle multicanal, ont présenté l'usage des outils de l'éditeur par cette caisse régionale du groupe lors de la Journée des Décideurs Marketing, le 18 mai 2010. « Nous rencontrions trois problèmes : d'abord une sur-sollicitation de nos clients avec des produits correspondant davantage aux intérêts de nos commerciaux qu'à ceux des clients, ce qui dégradait notre image ; ensuite un manque de personnalisation dans notre relation avec nos clients ; et enfin une prise en compte insuffisante du développement du multi-canal avec des contacts pouvant passer aussi bien par le web, le centre d'appel ou les agences » se souvient Jean-Luc Catherine.
Une mutation progressive
Le Crédit Agricole Nord de France se devait donc d'améliorer sa démarche commerciale afin de développer son activité (680 millions d'euros de produit net bancaire annuel pour 197 de résultat) au travers de ses 260 agences et 2750 collaborateurs auprès de son 1,1 million de clients. La démarche a donc consisté à développé à la fois un datawarehouse contenant des informations clients et des outils d'analyse. Jean-Luc Catherine précise : « nous voulons passer d'une banque orientée produits et pluricanale à une banque orientée clients et multicanale ». Ce n'est pas le genre de mutation qui se fait en un jour. « Il fallait également que le réseau s'adapte aux nouvelles démarches, les outils devant s'incliner devant les processus et l'organisation » se souvient David Zielinski.
Transformer la relation clients
Quatre étapes ont donc été définies, la caisse régionale en étant aujourd'hui à la troisième. La première étape a consisté à l'optimisation de l'approche client par le scoring via une gestion de la relation client analytique. La deuxième a permis une gestion améliorée de la prise en compte des évènements affectant chaque compte. L'étape actuelle amène la banque à effectuer une segmentation comportementale et la création de programmes relationnels. Enfin, en 2011, sera mis en place une gestion de la relation client en temps réel. Chaque étape repose sur une exploitation améliorée du datawarehouse, qui est également étendu.
Illustration site CA Nord de France, crédits D.R.
[[page]]
« Socle des études, du pilotage commercial, de la gestion des risques, des ventes, le datawarehouse contient une vision complète des clients avec une profondeur pouvant aller jusqu'à cinq ans et environ 10 000 données/client en moyenne » stipule David Zielinski.
Pour améliorer les informations possédées, le client peut dès à présent renseigner des données qualitatives sur son sujet, ce qui permettra d'affiner le ciblage. A terme, des fonctions de text-mining permettront d'intégrer des données issues de réseaux sociaux ou de systèmes tiers.
Dès la première étape, le calcul d'un score d'appétence d'un client à un produit a permis d'améliorer le taux de succès des démarches commerciales. Pour vérifier la validité d'un modèle de calcul d'appétence, le modèle est testé sur une agence pilote avec en regard une « agence placébo ». Les commerciaux sont persuadés d'avoir un bon scoring mais, dans le cas de l'agence placebo, il est aléatoire. Si la différence d'efficacité commerciale est significative, le modèle de scoring est validé, sinon il est abandonné ou remis en chantier.
Scénariser la démarche commerciale
Avec la deuxième étape, SAS Marketing Automation a été utilisé pour scénariser la démarche commerciale : définir l'opportunité de contact client (événement initial, avec information poussée au commercial approprié ou via un automatisme web/mail), puis le schéma de sollicitation (quel canal ou quel suite de canaux), une aide à la vente, des offres ou actions préconisées... Au final, un indicateur mesure l'efficacité de la démarche commerciale.
Le volume des sollicitations commerciales des clients a été divisé par 2,5 mais leur efficacité a été prodigieusement accrue. « Approcher selon une analyse du client était certes intellectuellement séduisant mais l'approche produit demeurait à la base plus sécurisant et simple pour les commerciaux du réseau ; heureusement les résultats ont rassuré tout le monde, d'autant que les clients étaient ravis d'avoir le sentiment qu'on s'occupait d'exu » se souvient Jean-Luc Catherine.
[[page]]
L'étape actuelle repose toujours sur l'usage de SAS Marketing Automation pour opérer une segmentation comportementale et créer de nouveaux types d'évènements. Surtout, le cross-canal est enfin géré de façon satisfaisante, avec une mesure de la pression commerciale cumulée. On peut ainsi initier une vente sur un canal, la continuer sur un deuxième et la parfaire sur un troisième. Enfin, l'ultime étape a déjà démarré sous forme de quelques expériences comme la création d'une page Facebook. A raison de 150 « fans » supplémentaires chaque semaine, la page de la caisse régionale a atteint les 2600 fans.
Dans ce type de relation, la banque est l'égal de son client et de son prospect. « Les prospects sont particulièrement précieux car il est compliqué de les faire venir en agence » mentionne Jean-Luc Catherine. Ici, le client est ambassadeur de la marque. En dehors de considérations éthiques et légales (insultes...), la règle appliquée est celle d'une non-modération. Deux commentaires seulement ont été supprimés à ce jour. Les contributions critiques sont conservées. Selon Jean-Luc Catherine, « tout en étant beaucoup moins cher que le recours à Google Adwords, le système est trois à quatre fois plus efficace. La vraie limite réside dans la protection des données personnelles. ».
Des outils Oracle et SAS
Techniquement, le datawarehouse repose sur une base de données Oracle sur laquelle viennent se poser des outils fournis par SAS : Marketing Automatisation et Marketing Optimization, reliés à la GRC de SAS sur laquelle vient enfin s'installer SAS Real-Time Decision Manager. Le Crédit Agricole Nord de France reconnaît qu'il y a eu quelques développements spécifiques mais marginaux. La vraie question qui reste à traiter est celle de la refonte de la rémunération du réseau commercial dont l'activité a été profondément modifiée. (...)
Reporting financier : Sage étend les fonctions de son offre 1000 FRP
La version 6 de Sage 1000 FRP (Finance Resource Planning), solution intégrée de consolidation financière et de reporting, apporte trois innovations principales. Ce logiciel est monobase, ce qui signifie qu'un service comptable peut travailler sur toutes les comptabilités d'un groupe. Les analyses sont plus fiables et plus rapidement réalisables avec un langage de gestion commun et une plus grande cohérence des données. L'éditeur affirme être le seul à proposer une version monobase, en plus de la version multi-bases, sur ce segment de marché.
Sage 1000 FRP propose également un nouveau module, pour la gestion automatisée des notes de frais (dont le coût manuel atteint 50 à 150 euros par note). Par ailleurs, l'utilisateur dispose maintenant d'un accès au logiciel depuis son client de messagerie Microsoft Outlook, ce qui lui permettra d'intégrer rapidement les demandes des collaborateurs de l'entreprise, par exemple les notes de frais. C'est aussi un moyen de déporter sur le collaborateur des tâches très administratives dévolues jusqu'alors aux services financiers.
Cette nouvelle version du logiciel a été lancée ce 20 mai par un événement organisé entièrement en ligne. Une version bêta était disponible depuis le mois de décembre dernier. Sage 1000 FRP est diffusé par 80 partenaires Sage.
SapphireNow 2010 : SAP promet l'analyse en temps réel pour tous ses clients
Vishal Sikka, directeur technique de SAP, et assurément l'un des hommes forts de l'éditeur allemand d'ERP, a confirmé que la société préparait avec HP et IBM des « appliances » pour analyser en temps réel et en mémoire les données transactionnelles gérées dans ses différentes versions d'ERP. Ces équipements ne seront pas mis sur le marché avant la fin de l'année mais SAP va déjà proposer à certains de ses clients de les tester. L'annonce a été faite hier, à Francfort, dans le cadre de la conférence utilisateurs SapphireNow 2010, en duplex avec Orlando où se tenait le versant américain de l'événement.
L'émergence de ces technologies d'analyse en mémoire, capables d'opérer sur des volumes de données de l'ordre du téraoctet, en s'affranchissant donc des accès aux disques durs, résulte de la conjonction des avancées spectaculaires réalisées au cours des dernières années sur le matériel (processeurs, mémoires...). Le CTO (chief technology officer) de SAP énumère les processeurs multicoeurs qui permettent de disposer de 64 coeurs sur une seule lame (blade), en tournant à des fréquences de 2 à 3 GHz, et l'amélioration des performances sur les mémoires (capacité et rapidité -100 Go par seconde) conjuguée à la baisse radicale de leur coût. « Il est aujourd'hui possible de gérer jusqu'à 2 To sur une seule lame », souligne-t-il. A cela s'ajoute le stockage des données en colonnes qui, associée à des fonctions de compression des index, permet de réduire dans des proportions très importantes la taille nécessaire pour traiter en mémoire des milliards d'enregistrements. Vishal Sikka cite l'exemple d'un client gérant 4,7 milliards d'enregistrements, sur 74 000 tables. Le stockage en colonnes a permis de ramener ces données sur 250 Go de mémoire, ce qui correspond à des capacités couramment disponibles sur des serveurs lames actuellement.
« Pour tirer pleinement parti de ces avancées, nous avons réuni trois équipes de développement de SAP », a poursuivi le CTO. Outre celle qui travaille sur MaxDB (la base de données maison qui existe depuis maintenant 33 ans et tourne chez plusieurs milliers de clients de l'éditeur), il cite l'équipe qui a développé TRex, et élaboré il y a dix ans la première technologie de stockage en colonnes en mémoire de l'éditeur. « Le résultat combiné de leurs efforts a débouché sur une technologie capable de traiter en mémoire 2 Mo de données en une milliseconde par coeur en tirant avantage des processeurs multicoeurs. Vous imaginez la vitesse à laquelle le système peut parvenir en multipliant 2 Mo par 64 coeurs, sur des données stockées en colonnes et compressées, jusqu'à 10 à 50 fois ».
Des requêtes en temps réel sur des données transactionnelles
Le disque est ici utilisé comme un système de stockage secondaire, persistant, et le calcul sur les données se fait sans procéder à des agrégats. « Rien n'est matérialisé, ni stocké sur des couches intermédiaires, ce qui vous permet d'obtenir des réponses en temps réel sur les données. Vous pouvez ainsi procéder à des requêtes sur les données transactionnelles, des requêtes directes sur les données financières, par exemple. »
Les appliances, préparées avec HP et IBM, seront rattachées aux datawarehouses, mais aussi aux systèmes transactionnels qui exploitent SAP R/3. « Les données transactionnelles seront copiées dans une nouvelle base de données en mémoire et analysées en temps réel. Vous pourrez procéder à toutes les requêtes possibles et imaginer de nouveaux types d'applications dans les domaines de la planification, de l'optimisation, du prévisionnel ou encore de la simulation ». Des capacités que SAP souhaite apporter à l'ensemble de ses clients, quelle que soit la version de son ERP qu'ils utilisent.
L'Amrae publie son panorama des systèmes d'information de gestion des risques
Pour répertorier, analyser, synthétiser ou restituer des informations à la fois nombreuses et variées, les gestionnaires du risque s'appuient bien souvent sur de simples tableaux Excel ou sur des applications sous Access. Mais à partir d'une certaine volumétrie et d'une certaine complexité, le recours à des produits spécialisés s'impose, afin de construire un SIGR (système d'information de gestion des risques) digne de ce nom. Le choix se heurte alors à une offre pléthorique et relativement récente dont les produits proposent des fonctions aussi variées que le sont les besoins.
Pour tenter d'apporter un peu de lumière, la commission « systèmes d'information » de l'Amrae (Association pour le management des risques et des assurances pour l'entreprise) vient de publier la version 2009 de son panorama annuel. Il est basé sur les réponses des 17 éditeurs ayant rempli le questionnaire (sur 73 interrogés). Ces réponses n'ont certes pas fait l'objet de vérifications particulières mais le document final a le mérite de mettre en évidence la couverture fonctionnelle de chaque offre.
Des produits généralistes ou très spécialisés
Cette couverture est décrite au travers de 18 critères fonctionnels évalués de 1 à 4, comme le reporting, le workflow, l'audit, l'assurance, la cartographie des risques, la maîtrise des risques, la gestion de crise, le contrôle interne, la personnalisation ou encore le support des devises. De plus, un lien a été établi entre certains critères et les dimensions du référentiel COSO II (notamment la capacité d'adaptation du SIGR à l'organisation, la capacité d'intégration des objectifs et du suivi de leur atteinte, ou encore la gestion des droits d'accès et la traçabilité).
[[page]]
L'étude détaille chaque produit, d'une part sous la forme d'un diagramme correspondant aux 18 critères, d'autre part sous celle d'un histogramme représentant les dimensions COSO II. Ces résultats confirment la grande disparité entre les produits, certains cherchant une couverture fonctionnelle maximum tandis que d'autres se concentrent dans des domaines précis. Des diagrammes inspirés des fameux cadrans magiques du Gartner font d'ailleurs émerger généralistes et spécialistes.
Ainsi, l'un de ces cadrans, qui retient deux critères essentiels - la cartographie des risques et l'assurance - place dans les généralistes, AON, Effisoft, Enablon, Marsh, Mega, RVR Systems, SAS et Sword Group. Tandis que IDS Scheer ou Methodware portent leur effort sur la cartographie, et que EI Michel Bouton (ex-Compagnie Transair) privilégie pour sa part les assurances. Un second cadran retient comme critère, toujours la cartographie en abscisse mais cette fois le suivi des plans d'action en ordonnée, ce qui permet de retrouver sensiblement les mêmes généralistes, en haut à droite du cadran.
Le panorama des SIGR (...)
| < Les 10 documents précédents | Les 10 documents suivants > |