Le 17 juin 2010, le cabinet d'études spécialisé dans le marché du progiciel CXP a tenu son forum annuel au Centre de Conférences Etoile Saint Honoré à Paris. Une quinzaine de tables rondes ont permis de faire le point sur les évolutions des principaux segments de marché du logiciel et les tendances. La parole était d'abord aux experts du cabinet puis ensuite à des éditeurs accompagnés de clients, souvent récents.
Si certains témoins d'entreprises étaient pour le moins peu expérimentés (« nous déployons demain » a ainsi avoué l'un), l'intérêt de la manifestation résidait surtout dans les analyses de marchés, le plus souvent en forme de « bilan et perspectives ».

La BI se banalise

Le décisionnel a ainsi fait l'objet d'une session animée par Laurence Dubrovin et Laëtitia Bardoul en présence d'éditeurs (Tibco, Prelytis, Cognos/IBM et Reportive) et de clients (Egamo, Takasago et Renault). Sans concession, les intervenants ont admis, sur la base d'études assez anciennes du Gartner notamment, que 60% des projets de décisionnel étaient des échecs et 20% n'étaient pas utilisés régulièrement par leurs destinataires. La tendance, du coup, est aujourd'hui à des projets plus légers et moins chers, développés plus rapidement avec une plus grande réactivité, bref en méthodes agiles, avec des progiciels de nouvelle génération. Ceux-ci, pour éviter le recours à un ETL, sont de plus en plus nombreux à aller piocher directement dans les données de production.
Les projets décisionnels ont aussi migré en terme de population cible : des seules DG et DAF, ils visent désormais tous les métiers. Chaque responsable métier a en effet besoin de ses propres indicateurs. Les solutions sont, de ce fait, également de plus en plus dédiées et pré-paramétrées soit pour un métier soit pour un secteur.

La querelle des anciens et des modernes n'aura pas lieu

La tendance est également à disposer de produits capables d'être pris en main par les utilisateurs eux-mêmes facilement, y compris pour créer des états. Globalement, les « vieilles » solutions (comme Cognos, Hyperion...) ont tendance, dans leurs versions récentes, à se rapprocher de la convivialité des solutions « légères » (Qliktech...). En retour, ces dernières voient leurs fonctionnalités s'accroître au fil du temps. La dichotomie n'est plus, par conséquent, aussi évidente qu'il y a quelques années.

Les recommandations des analystes du CXP étaient attendues : comme dans tous les projets informatiques, il convient de d'abord fixer les objectifs métier avant de se préoccuper d'un choix technique ; les utilisateurs doivent être impliqués dès l'origine du projet ; et, enfin, la qualité des données doit être soignée. Ce dernier sujet est visiblement le point délicat qui reste à traiter en matière de décisionnel.


[[page]]

Malgré tout, l'implication voulue des métiers n'est pas toujours si évidente. « Le temps nécessaire à un tel projet est toujours sous-estimé et, dans des équipes toujours réduites d'ajouter un pilotage de projet informatique au travail normal » a ainsi avoué Nicolas Demont, DG d'Egamo, une filiale de gestion d'actifs de la MGEN. Sur le plan technique, cette société de 14 personnes (pour deux milliards d'euros gérés) a cependant eu juste besoin d'un stagiaire en informatique pour la mise en oeuvre du premier projet, en plus du prestataire et du pilotage métier. Or ce premier projet a souligné le besoin de restructurer et d'améliorer la qualité des données.

La base de données SQL Server de consolidation a été paramétré avec des procédures stockées pour avoir des données propres calculées à partir des données externes. De plus, via Spotfire de Tibco, les clients externes confiant leurs actifs à l'entreprise peuvent suivre en détail leurs comptes via un accès extranet. Les données traitées dans le décisionnel peuvent également être « redescendues » dans les sources mais avec des contrôles en fonction du profil de la personne ayant entré l'information. Enfin, les modèles d'analyses ne sont pas conçus par chaque utilisateur. Dans ce secteur particulier de la gestion d'actif, il est essentiel que ces modèles soient communs à toute l'entreprise et donc validés par la direction générale.

A l'inverse, Eric Chavaset, directeur logistique du producteur de parfums et fragrances (alimentaires et non-alimentaires) Takasago, a précisément choisi Prelytis pour la facilité pour l'utilisateur final à concevoir des états. En l'occurrence, il s'agissait de pouvoir suivre la rentabilité de projets aux multiples intervenants. Mais il a averti : « les deux tiers du projet ont consisté à rendre les données fiables ».

[[page]]

Le décisionnel servant à décider, il doit aussi servir à prévoir. Les systèmes prédictifs constituent cependant une branche séparée, avec des outils spécifiques (SPSS/IBM, certains modules de MicroStrategy, de SAS ou d'Information Builders...). « Les systèmes prédictifs, ce sont avant tout des mathématiques et des statistiques » a martelé Christian Carolin, analyste du CXP.

Ces systèmes reposent sur deux types d'approches : soit par modèles, soit par méthodes statistiques. Les modèles peuvent être soit formels (principe des « systèmes experts », principe des scorings de risques dans les établissements de crédit par exemple), soit connexionnistes (mise en relation de données selon un principe de réseau neuronal avec auto-apprentissage). Les méthodes statistiques, quand à elles, peuvent être soit non-supervisées (des phénomènes atypiques sont mis en valeur sans recherches pré-déterminées) soit supervisées (avec des questions préalables). Christian Carolin tempère cependant : « dans les faits, les produits sont souvent mixtes ».

Mais là encore, la qualité des données est au coeur de la problématique. Christian Carolin donne ainsi cet exemple simple : « si un système met une date par défaut pour la naissance si celle-ci n'est pas renseignée, travailler sur les dates sans précautions devient un non-sens. »