Flux RSS

Décisionnel

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

626 documents trouvés, affichage des résultats 341 à 350.

< Les 10 documents précédentsLes 10 documents suivants >


(31/10/2008 17:39:05)

Performance financière : l'éditeur Tagetik s'installe en France

Spécialisé dans les applications de gestion de la performance financière (CPM, corporate performance management), l'éditeur italien Tagetik ouvre une filiale en France après s'être installé aux Etats-Unis, en Angleterre et en Allemagne ainsi que dans plusieurs autres pays européens. Le marché sur lequel il évolue a subi une forte concentration ces derniers mois puisque les principaux concurrents de Tagetik ne sont autres que Hyperion (racheté par Oracle), Cartesis, OutlookSoft (tous deux dans le giron de SAP désormais), Infor (avec l'offre MPC) et, depuis cette année, Microsoft. Une concurrence que connaît bien Bruno Leblanc, vice-président et directeur général de Tagetik France. Face aux produits établis, il avance avec Tagetik CPM une solution de conception récente (livrée en 2006), qui bénéficie de la vingtaine d'années d'expérience de son éditeur (à l'origine société de services) et déjà installée chez 300 clients dans le monde, dont la grande majorité en Italie (Pirelli, Gucci, Barilla, le groupe pharmaceutique Menarini, notamment). Un seul référentiel et modèle de données Mais surtout, le patron de la filiale française fait valoir que cette offre, appliquée à la gestion de la performance et à la gouvernance financière, couvre tout le spectre du CPM (élaboration budgétaire, planification, gestion prévisionnelle, consolidation légale, reporting de management, tableaux de bord, scorecarding, gestion des risques et de la conformité...) en s'appuyant sur un unique référentiel et un seul modèle de données. Alors que les plateformes de CPM concurrentes ont souvent été constituées par intégration à la suite de rachats. Bruno Leblanc souligne par ailleurs l'importance des applications analytiques et des fonctions pré-packagées, ces dernières représentant selon lui près de 90% de Tagetik CPM, ce qui permet de réduire le nombre de jours de consulting. Le prix de la maintenance est fixé à 20% annuels du coût des licences. (...)

(30/10/2008 16:56:37)

Spotfire affiche en 3D et révèle les liens entre les données

Déjà reconnue pour ses capacités avancées de visualisation, la plateforme d'analyse de données de l'éditeur Spotfire (racheté par Tibco en 2007) vient d'être livrée dans sa version 2.2, dotée de représentations graphiques en 3D pour explorer plus efficacement les données multidimensionnelles complexes. La possibilité de manipuler les données en profondeur et sous divers angles, à l'aide de zooms et de rotations, conduira à mettre en évidence des informations qui n'apparaissaient pas jusque-là. Lors de la présentation parisienne de cette nouvelle version, Spotfire a notamment illustré ces fonctions 3D dans le domaine de la recherche pétrolière.

Faire apparaître des relations ignorées entre les données


La plateforme Tibco Spotfire 2.2 s'enrichit également d'un add-on, Network Analytics, qui permet d'afficher des relations entre les données afin de faire apparaître des liens jusque-là non détectés. Ces fonctionnalités seront tout particulièrement mises à profit dans le secteur de l'enquête policière (par exemple pour établir des liens entre interlocuteurs dans un flux d'appels téléphoniques), du renseignement ou de la lutte contre le blanchiment d'argent. Mais Spotfire souligne qu'elles peuvent être exploitées dans de nombreux autres domaines, appliquées notamment à l'analyse de réseaux sociaux ou de la gestion de la chaîne logistique. A noter que, outre l'add-on Network Analytics, la plateforme dispose également, avec l'offre complémentaire Spotfire S+, des capacités d'analyse prédictive issues du rachat, en juin dernier, de l'éditeur Insightful, spécialisé dans l'analyse statistique et les solutions de datamining.

Analyse 'en mémoire' et workflow analytique

Rappelons que l'une des caractéristiques principales de l'offre Spotfire est qu'elle fut parmi les premières à proposer des capacités d'analyse « in-memory » permettant à l'utilisateur de manipuler d'importants volumes de données, rapidement, et sur un mode interactif. L'éditeur met également en avant le fait que sa plateforme permet aux utilisateurs de construire des workflows analytiques pour enchaîner différentes actions (des fonctions que l'éditeur a notamment conjuguées, dans sa solution Operation Analytics, à l'offre de gestion des processus métiers de Tibco). La plateforme de Spotfire est particulièrement utilisée par les services financiers, les secteurs de l'énergie, du pétrole, de la pharmacie, mais aussi, de plus en plus dans les secteurs de l'assurance, des télécommunications et de l'industrie.

Un portail Spotfire pour les développeurs


Enfin, l'éditeur annonce également l'ouverture de « Tibco Spotfire Technology Network », un portail destiné aux développeurs. Ces derniers pouvaient déjà recourir à des interfaces de programmation (API) pour constituer des applications composites en tirant parti de la plateforme de Spotfire. Désormais, ils disposent d'un kit de développement complet pour concevoir des applications spécifiques au-dessus de la plateforme d'analyse Tibco Spotfire. (...)

(22/10/2008 10:11:04)

Intégration de données : Talend fournit le support natif de SAP

Dans la version 3.0 de sa solution d'intégration de données Open Studio, l'éditeur français Talend fournit quelque 400 connecteurs et une connectivité native avec les applications de SAP, notamment pour les projets décisionnels. Proposée en Open Source, sous licence GPL v2, cette offre d'ETL (extraction, transformation et chargement des données dans une base cible) a été lancée il y a deux ans. Depuis, elle a été complétée des services avancés de Talend Integration Suite, déclinée en trois versions, pour répondre aux besoins de différentes tailles d'entreprises. Open Studio 3.0 propose aussi un mode ELT (extraction, chargement, transformation) avancé. Plutôt adapté aux environnements homogènes (quand le mode ETL convient bien aux environnements hétérogènes), ce mode ELT avancé est destiné aux transformations très volumineuses. La fonction Change Data Capture (CDC), déjà proposée par Talend dans son offre de services avancée, est désormais ajoutée à Open Studio. Elle optimise l'intégration de données en temps réel dans les applications de datawarehouse en détectant immédiatement les données modifiées afin de les actualiser. Enfin, Open Studio 3.0 intègre aussi l'analyse de dépendance qui contrôle l'impact des changements sur les processus d'intégration. L'éditeur signale par ailleurs la disponibilité de l'option de gestion de qualité des données, Data Quality, disponible dans le cadre de son offre de services. (...)

(15/10/2008 15:29:05)

Les dix technologies clés pour 2009 selon le Gartner

Le Gartner Group a identifié dix technologies clés pour 2009. Nombre d'entre elles l'étaient déjà en 2008. Les critères du Gartner pour sa sélection sont de trois ordres. Pour qu'une technologie soit retenue, elle doit avoir un impact majeur sur le mode de fonctionnement des systèmes d'information, impliquer un investissement financier important et, enfin, menacer d'obsolescence ceux qui n'en tiendraient pas compte. 2009 sera l'année de la virtualisation, du cloud computing, des serveurs ("au-delà des lames"), des architectures orientées Web, du mashup et des applications composites, des communications unifiées, du décisionnel (business intelligence) et de l'informatique écologique. La virtualisation pourrait gagner plus de terrain en matière de stockage Le cloud computing, qui n'apparaissait pas l'an dernier, fait son apparition au deuxième rang, derrière la virtualisation. Les analystes du Gartner donnent la définition suivante d'un terme très galvaudé ces temps-ci : la fourniture de ressources en tant que "services", lesquelles sont fournies de façon très souple (scalability...) grâce à l'usage de technologies comme celles associées à Internet et, enfin, la prise en compte des clients extérieurs. [[page]] Par essence, la virtualisation est étroitement liée au cloud coumputing. Cette année, le cabinet souligne l'impact de ce concept au-delà des seuls serveurs. C'est en matière de stockage que la virtualisation pourrait gagner le plus de terrain. La déduplication des données permet de réduire nettement les espaces de stockage. La virtualisation commence aussi à investir le niveau des postes clients. C'est là que les gisements d'économie sont les plus importants, mais la complexité des projets freine son adoption. La virtualisation du poste client ne touchera que 40% des entreprises éligibles en 2010. En matière de serveurs, le Gartner Group prédit une nette évolution des modèles lames. Les autres prévisions pour 2009 s'inscrivent dans la continuité de celles décrites pour 2008. (...)

(07/10/2008 16:36:17)

Microsoft fonce sur le décisionnel avec SQL Server 'Kilimanjaro', prévu pour 2010

Dénommée pour l'instant 'Kilimanjaro', la prochaine génération de la base de données SQL Server, de Microsoft, est placée sous le signe de l'analyse décisionnelle (ou BI, business intelligence), avec une sortie programmée pour le premier semestre 2010. L'analyse de données est un pan de son catalogue que Microsoft entend renforcer sensiblement à l'instar de ce qu'ont fait les grands fournisseurs du marché (SAP, Oracle, IBM...) ces derniers mois. En atteste, notamment, le rachat du spécialiste du datawarehouse Datallegro, cet été. A l'occasion de sa Business Intelligence Conference' (06-08 octobre, Seattle), Microsoft vient de révéler que la version 2010 de SQL Server comporterait des fonctions d'analyse de données et de reporting en 'libre service', des développements menés sous le nom de code 'Projet Gemini'. Ces fonctions permettront aux utilisateurs d'agréger eux-mêmes des données provenant de différentes sources pour constituer des rapports et des représentations graphiques qu'ils pourront ensuite partager par l'intermédiaire de la technologie de portail SharePoint, de plus en plus mise à contribution par Microsoft. L'éditeur a précisé que Gemini sera fortement intégré avec Excel pour accéder aux services d'analyse en self-service depuis les feuilles de calcul. Il a également prévu de favoriser le partage d'informations à l'aide de fonctions de communications unifiées provenant d'Office Communications Server (OCS). Un datawarehouse pour traiter plusieurs centaines de téraoctets[[page]] Un datawarehouse pour traiter plusieurs centaines de téraoctets Quant à la technologie rachetée à Datallegro, Microsoft compte la mettre en oeuvre dans une solution d'entrepôt de données alliant matériel et logiciel (appliance) capable de traiter plusieurs centaines de téraoctets. Un projet qui porte cette fois le nom de Madison. Sur la BI Conference, l'éditeur a effectué une démonstration sur mille milliards de lignes de données. Dell, HP, Unisys, Bull Systems et EMC se sont déjà engagés pour constituer la partie matérielle du datawarehouse. Parmi eux, HP vient déjà d'annoncer, la semaine dernière, une appliance d'entrepôt de données réalisée avec Oracle : la HP Oracle Database Machine. Pour le projet Madison aussi, une version CTP devrait doit être proposée dans une douzaine de mois. Enfin, Microsoft prévoit également d'exploiter la technologie de gestion de la qualité des données acquise de Zoomix. (...)

(06/10/2008 07:56:33)

Première mise à jour de Cognos 8 depuis le rachat par IBM

Cognos annonce la version 4 de sa plateforme décisionnelle Cognos 8, quelque huit mois à peine après la sortie de la version 3. Il s'agit cette fois de la première évolution depuis l'absorption de l'éditeur par IBM. L'offre vient s'insérer dans le schéma 'Information on demand' d'IBM qui vise à faciliter l'accès aux données de l'entreprise, notamment par l'intégration de sources hétérogènes. Parmi les nouveautés de cette v4, à l'aide de fonctions de restitution apportées par Cognos 8 Go ! Dashboard, l'utilisateur définit et assemble ses propres tableaux de bord interactifs où il peut insérer flux RSS et 'widgets' externes (mini-applications) et depuis lesquels il peut aussi accéder à d'autres sources de données. Le moteur de recherche Cognos 8 Go ! Search qui indexe les contenus décisionnels simplifie encore le partage d'informations entre utilisateurs. La plateforme permet aussi de constituer un glossaire des termes métier utilisés. Elle s'enrichit de fonctions renseignant sur l'origine des données et les transformations qui leur ont été appliquées. Des outils d'annotation ont également été ajoutés. Du côté des applications de gestion des performances financières, IBM Cognos 8 Planning bénéficie d'une nouvelle interface améliorant les capacités de personnalisation. Des rapports d'analyse financière prépackagés, s'appuyant sur de bonnes pratiques, font également leur apparition. (...)

(03/10/2008 09:13:51)

Informatica conforte son expertise en Europe sur fond de projets qui s'internationalisent

Résolument centré sur son métier d'éditeur de solutions d'intégration de données, Informatica renforce ses équipes en Europe du Sud en rachetant PowerData, son distributeur depuis 1999 sur l'Espagne et le Portugal. Sur l'effectif de 90 collaborateurs, l'éditeur américain reprend en fait trente personnes, engagées sur l'activité de ventes de licences et de services à haute valeur ajoutée (marketing, avant-vente, experts...). Les autres salariés, investis sur les services professionnels, sont transférés vers la société PowerData Solutions qui poursuit de façon indépendante son partenariat avec Informatica.

La filiale Informatica Iberia reportera à Didier Guyomarc'h, directeur général d'Informatica France et vice-président des ventes pour l'Europe du Sud. Cet apport de compétences pourra être mis à profit avec les clients implantés sur plusieurs pays. « Les projets sont de plus en plus internationaux », confirme Didier Guyomarc'h. Il cite en exemple des clients comme la banque espagnole Santander qui a racheté des établissements bancaires aux Pays-Bas et en Grande-Bretagne, par exemple, ou encore Pernod Ricard, dont les activités IT sont très présentes en Espagne.

Décisionnel, modernisation du SI, référentiels d'entreprise...

En France, Informatica compte 175 clients, répartis de façon assez équilibrée entre les secteurs de l'énergie (environ 25% du chiffre d'affaires), de la banque (environ 20%), des biens de grande consommation (20%) et de l'industrie manufacturière (20%). Depuis un an et demi, la filiale investit plus particulièrement le secteur public (8% du chiffre d'affaires pour l'instant).

La plateforme d'intégration de données d'Informatica est toujours très utilisée pour les projets d'analyse décisionnelle qui représentent un peu moins de 50% du chiffre d'affaires de la filiale française. « Parallèlement aux projets de Business Intelligence qui continuent à croître, l'utilisation des outils d'intégration de données touche un spectre bien plus large », détaille Didier Guyomarc'h. Le dirigeant énumère les migrations de données effectuées dans le cadre de projets de modernisation du système d'information, ainsi que pour la mise en place d'ERP ou de référentiels d'entreprise (MDM, master data management), notamment à la suite de mouvements de fusion/acquisition.

Synchronisation de données et alimentation au fil de l'eau
[[page]] A cela s'ajoutent les opérations de consolidation et de synchronisation de données liées à l'utilisation d'applications gérées à l'extérieur de l'entreprise, notamment en mode SaaS -software as a service (Informatica propose en particulier des services pour les applications en ligne de Salesforce.com). Sans oublier les démarches imposées par les contraintes réglementaires (Sarbanes Oxley, Bâle II...) qui nécessitent aussi le recours à des outils d'intégration gérant, à l'instar de la plateforme d'Informatica, des données structurées, semi-structurées, voire non structurées (PDF, cellules Excel...).

« Notre plateforme a beaucoup évolué ces dernières années, rappelle Didier Guyomarc'h. Les fonctions d'alimentation en temps réel, disponibles depuis plus de trois ans, sont particulièrement utilisées dans la grande distribution. Les clients travaillent sur des volumétries de plus en plus importantes et recourent notamment à des fonctions de CDC -change data capture, permettant une alimentation au fil de l'eau ne prenant en compte que les éléments modifiés. Nous avons également introduit la notion de haute disponibilité, de grid computing et d'orchestration. » Sans oublier, dans le domaine de la gestion de la qualité des données, l'ajout d'outils de résolution d'identité, utilisés notamment pour détecter les comportements frauduleux. Des fonctions complétées en avril dernier, avec le rachat d'Identity Systems. (...)

(30/09/2008 16:28:15)

Entrepôt de données HP Oracle : les concurrents réagissent

A côté d'éditeurs comme Teradata, implantés depuis longtemps sur les grands entrepôts de données (datawarehouses), ces dernières années ont vu des acteurs de niche tels que Netezza et Datallegro investir le terrain des appliances décisionnelles (couplant matériel et logiciel) avec des technologies brevetées. Pour certains d'entre eux, la réaction ne s'est pas fait attendre à l'annonce de la 'HP Oracle Database Machine', une solution associant dans le même châssis des serveurs de bases de données et des serveurs de stockage. Par communiqué, Christian Raza, directeur des opérations de la filiale française de Netezza (ouverte en juin dernier), estime ainsi que le produit d'Oracle « n'est rien d'autre que du packaging autour de la base de données traditionnelle Oracle 11g ». Une offre, juge-t-il, conçue pour profiter du secteur en pleine expansion « des appliances décisionnelles dont on nous reconnaît la paternité ». Ce fournisseur américain est effectivement installé sur ce créneau depuis sa création, avec une technologie propre d'alimentation rapide de datawarehouse (streaming analytics) et de traitement massivement parallèle. « Nous sommes partis d'une feuille blanche », poursuit Christian Raza, tant sur le matériel que sur le logiciel, soulignant ainsi qu'Oracle n'aurait fait qu'installer sa base sur un serveur HP. Créer un marché de volume sur les appliances décisionnelles [[page]] Indéniablement, le secteur du datawarehouse bouge. « Datallegro, qui ne fonctionne que sur matériel Bull et Dell, a été racheté par Microsoft cet été, et Sun a fait le chemin inverse avec MySQL », rappelle Jean-Michel Franco, directeur des offres chez Business & Decision. Il y a quinze jours, des rumeurs de rachat par SAP ont fait monter l'action de Teradata. Cette hypothèse qui aurait semblé saugrenue il y a quelques semaines apparaît plausible désormais, évalue cet expert en solutions décisionnelles. Tout cela révèle un sérieux changement du marché et préfigure peut-être de nouvelles consolidations, juge-t-il. L'arrivée d'Oracle sur les appliances décisionnelles montre que les grands éditeurs n'entendent plus laisser les petits acteurs seuls sur ce terrain, souligne Jean-Michel Franco. « Il s'agissait d'un marché de niche, même si Teradata y est depuis longtemps et s'il y a beaucoup de nouveaux entrants, comme Greenplum, Vertica ou Cognito de Neocog. Les grands acteurs vont faire en sorte qu'il se transforme un peu plus en marché de volume. » Pour le directeur des offres de B&D, la solution d'Oracle va cibler les datawarehouses de 5 à 10 To pour lesquels Teradata apparaît trop haut de gamme. Il considère qu'en France, les produits de Teradata et Netezza concernent une trentaine de gros prospects. Et d'ajouter : « Microsoft a bien joué aussi, ils vont approcher les très gros ». Teradata : « Notre cible n'est pas tout à fait la même » Interrogé sur la HP Oracle Database Machine, Michel Bruley, directeur marketing de Teradata France, reconnaît qu'il s'agit forcément d'une offre concurrente, « même si notre cible n'est pas tout à fait la même, pas tant en termes de volumes que d'usage, précise-t-il. Nous cherchons à construire des entrepôts de données d'entreprise couvrant l'ensemble des départements -direction commerciale, marketing, logistique, finance, ressources humaines- pour effectuer des croisements et réaliser des analyses transversales. Ce n'est donc pas tant un problème de volumétrie que de complexité de l'usage. » [[page]] A sa création, Teradata s'est effectivement positionné sur les gros volumes (comme l'atteste d'ailleurs son nom). « Jusqu'à la fin des années 90, il y avait peu de systèmes au-dessus du Téraoctet, rappelle Michel Bruley. En France, nos grands datawarehouses atteignent 10 To comme chez Leroy Merlin, et les très gros gèrent entre 50 et 100 To -chez SFR et IBP, par exemple. Mais à l'étranger, nous en avons constitué d'énormes, dépassant les 200 To, et celui d'eBay monte jusqu'à 1 500 To. » Ce dernier, d'ailleurs, viendra témoigner le 19 novembre, lors de la conférence utilisateurs de Teradata. Par rapport aux datawarehouses qui autorisent des analyses de données sur une fonction de l'entreprise (la gestion de la relation client par exemple), Teradata insiste sur sa capacité à permettre à différents profils d'utilisateurs d'accéder simultanément à un entrepôt d'entreprise, insiste Michel Bruley. « Les uns effectueront de l'analyse standard, tandis que d'autres feront du datamining, éditeront des tableaux de bord préparamétrés ou lanceront des requêtes ad hoc, énumère Michel Bruley. Pendant que d'autres utilisateurs, encore, dans un centre d'appels, par exemple, effectueront du scoring sur des clients et que, dans le même temps, il sera possible de lancer des traitements par lots sur certains types de données. » Des traitements qui requièrent que le système supporte une mise à jour des données en temps réel. (...)

< Les 10 documents précédentsLes 10 documents suivants >