Flux RSS

Progiciels

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2426 documents trouvés, affichage des résultats 291 à 300.

< Les 10 documents précédentsLes 10 documents suivants >


(10/06/2011 10:07:47)

L'analyse de données appliquée aux RH

Pour sa seconde Business Lounge, le 3 mai dernier à Genève, le cabinet de conseil Accenture avait choisi pour thème l'analyse de données avec une question d'actualité pour la plupart des entreprises: «Comment transformer les données en un actif stratégique». S'appuyant sur de nombreux exemples, Thomas Ruck, Senior Manager auprès de la société à Zurich, a montré combien une exploitation judicieuse et ciblée des données a le potentiel d'améliorer la compétitivité des entreprises, leurs revenus, leur profitabilité et la loyauté de leurs clients. Parmi ces exemples, le cas surprenant de l'équipe de football de l'AC Milan, qui, sur la base de différents critères, est parvenue à déterminer le risque qu'un joueur se blesse et à réduire les blessures de 90% sur cinq ans.
Pourtant, même si la vaste majorité des décideurs reconnaissent les vertus de l'analyse de données, beaucoup de sociétés ne font qu'amasser des informations sans en faire grand usage, explique Thomas Ruck. Selon une étude d'Accenture, 40% des décisions sont basées sur l'intuition plutôt que sur des faits. Pour le consultant, le défi consiste à ancrer l'analyse dans les processus de décision. Ainsi, au-delà des technologies, l'analyse de données performante est en grande partie une question de personnes et d'organisation.

A la recherche des «quants»

Pour transformer les stocks d'informations les plus diverses en pépites utiles aux décisions stratégiques, les entreprises requièrent des spécialistes des données. Ces professionnels conjuguant de grandes capacités d'analyse quantitative - d'où leur surnom de «quants» - et des compétences de manager sont une ressource rare et qui promet de se raréfier encore vu la demande. Dans une interview, Hal Varian, Chief Economist de Google, expliquait ainsi que «L'habilité à comprendre les données, à les traiter, à en extraire de la valeur, à les visualiser, à les communiquer, va devenir une compétence extrêmement importante ces dix prochaines années». Selon une étude d'Accenture, 53% des entreprises misent d'ailleurs sur des compétences externes dans le domaine.

Malgré leur valeur, ces experts à des degrés divers sont souvent négligés par l'entreprise: ils sont dispersés au sein des différents départements, on ne sait pas qui ils sont, leurs descriptions de job varient, ils ne sont pas mesurés sur leur activité d'analyse, ils travaillent sur des projets secondaires. Pour y remédier, il faut selon Accenture développer une approche d'entreprise qui leur soit spécialement destinée, avec une définition globale des besoins d'analyse de l'entreprise et des programmes visant à découvrir,à développer et à déployer ces talents là où ils apportent plus de valeur. Une approche qui garantit également une plus grande satisfaction et un engagement plus fort de leur part.

Crédit photo : Fotolia

www.ICTjournal.ch

[[page]]

Autre résultat de l'étude menée par Accenture, les entreprises ont intérêt à centraliser les ressources les plus compétentes en matière d'analyse, de façon à développer des bonnes pratiques entre les métiers et à se centrer sur des initiatives stratégiques. Le cabinet distingue trois types d'organisation de ces talents qui dépendent des caractéristiques de la société et de son niveau de maturité dans l'analyse de données. Dans le modèle basique distribué, le plus courant, les analystes sont répartis au sein des fonctions de la société. Le défi est dès lors de gérer les priorités, les projets et les ressources.

Autre type d'organisation, la création d'un centre d'excellence dédié à l'analyse. Les collaborateurs continuent à la fois à travailler pour leurs départements respectifs, tout en étant membre d'une communauté d'experts. Une structure qui permet de partager connaissances et bonnes pratiques et, parfois, d'établir des projets prioritaires. Dans le modèle consolidé, qui reflète la plus grande maturité selon Accenture, les analystes rapportent à une organisation commune. Un modèle qui permet d'assigner plus facilement les analystes aux priorités stratégiques de l'entreprise, avec le risque toutefois d'une plus grande distance avec les métiers. 

www.ICTjournal.ch

(...)

(09/06/2011 10:53:41)

La Poste unifie ses systèmes de CRM avec Exalead et Capgemini

La Poste effectue des ventes de services B2B via plusieurs canaux. Dans un contexte de réduction globale du volume de courrier et du chiffre d'affaires afférent, elle voulait relancer ses ventes en la matière. Cela impliquait d'accroître la performance des commerciaux notamment en améliorant leur connaissance clients globale.

Or l'établissement public dispose historiquement de multiples systèmes de CRM (sous Oracle Siebel notamment) avec chacun leurs propres logiques et leurs propres référentiels. « Notre première option était de tout refondre dans le cadre d'un grand projet de vingt ans, la deuxième d'essayer d'agréger l'existant » explique Anne Gerardin, la directrice du programme Comet au sein de La Poste. Elle a choisi la deuxième solution en mettant en oeuvre le projet Comet. Au niveau back-office, rien ou presque n'a changé. Par contre, le Front Office a été totalement modifié pour les populations cibles du projet, pour l'instant les télévendeurs, en attendant la généralisation.

SBA au lieu de MDM

Première difficulté : chaque système de CRM possède son propre modèle de données, optimisé pour son usage initial propre. Mettre en place un modèle unique de données, voire un référentiel commun dans le cadre d'une démarche MDM (Master Data Management), aurait donc été à la fois complexe et très lourd. De plus, gérer un bus applicatif classique avec des échanges de messages entre GRC aurait lui aussi été complexe à mettre en oeuvre, d'autant plus que ce type d'architecture implique de devoir modifier l'implémentation à chaque modification de l'une des composantes.

Enfin, l'interface d'un système commercial est, presque par nature, jamais clairement définie au départ du projet. Il s'agit donc d'adopter une démarche agile, très itérative et centrée sur les désirs des utilisateurs finaux. Pour relever ce triple défi, La Poste a fait développer par Capgemini une interface spécifique avec une ergonomie très intuitive permettant de limiter les formations des utilisateurs et reposant sur une SBA (Search Based Application), c'est-à-dire une application à base de moteur de recherche.

Un ROI rapide

Le projet Comet repose donc sur une technologie SBA fournie par l'éditeur Exalead. Les mises à jour des différentes GRC sont indexées dans les 3 à 5 minutes dans la base d'index d'Exalead, ce délai étant issu d'un arbitrage pour optimiser l'efficacité du système en fonction des besoins réels des utilisateurs. Ce moteur de recherche alimente l'interface unique des utilisateurs de Comet en agrégeant les différentes sources d'information sans avoir à se préoccuper des différents modèles de données et sans, non plus, en créer un nouveau. Le principe même du moteur de recherche est en effet de n'utiliser que des données non-structurées, qu'elles soient ou non structurées au départ. Les télévendeurs accèdent ainsi rapidement à l'ensemble des informations disponibles sur chaque client appelé.

Le projet a été lancé en septembre 2009 et, après une phase pilote, est généralisé depuis début 2011. Les télévendeurs ont ainsi pu accroître de 20% leur nombre d'appels net de prospection. Grâce à cette augmentation d'efficacité, le retour sur investissement a été estimé à deux ans et demi. Le coût du projet n'a cependant pas été révélé

(...)

(08/06/2011 11:45:15)

Pour analyser les retours clients, Vente-Privée a choisi Viavoo en SaaS

En dix ans, Vente-Privee.com est devenu le spécialiste de la vente événementielle. Avec une clientèle de 12,3 millions de membres, 41 millions de produits vendus en 2010 et 75 000 colis expédiés par jour, il revendique une place de leader dans sa spécialité. La relation de confiance tissée avec ses membres est un facteur essentiel de son succès depuis sa création. Or il devait faire face, avec le succès, à une croissance forte des interactions clients, sans oublier le développement de l'expression publique des clients sur les médias sociaux (Twitter, Facebook, blogs, forums...). Le service doit ainsi gérer 100 000 contacts clients par jour.

Le service Relations Membres intégré de Vente-Privee.com souhaitait soigner son facteur de différenciation, la qualité de sa relation avec ses membres, ce qui supposait de bien comprendre les opinions et les sentiments de ceux-ci. L'objectif était de remonter autant les tendances dans les incidents que les facteurs de satisfaction ou le suivi d'indicateurs de qualité de service.

Un social-CRM en mode SaaS

Pour cela, Vente-Privee.com a choisi de recourir à une solution en mode SaaS, Smarter Feedback de l'éditeur français Viavoo. Cet outil collecte tous les canaux d'expression des clients (e-mails directs, dialogues dans les chats de relation-clients, forums, blogs, Facebook, Twitter...), les analyse et les restitue sous forme d'états décisionnels. 
Au contraire d'outils plus classiques d'intelligence économique qui procèdent par remontées de mots clés, Smarter Feedback réalise à la fois une analyse sémantique (des termes employés) et une analyse syntaxique (place des termes dans la phrase et sens impliqué), ce qui permet de différencier, par exemple, « ceci ne vaut rien » de « rien ne vaut ceci ». La restitution, de type décisionnelle, se base sur une catégorisation et une quantification des concepts avec une capacité de filtrage sur critères. 
Il est ainsi possible de différencier l'avis des clients selon le canal (Facebook ou les e-mails entrants par exemple). Enfin, le système gère des alertes en cas d'incidents comme il permet de suivre des indicateurs de progression de la qualité de service. Par exemple, il est possible de détecter si un type d'incident (déception sur la qualité des produits...) est systématiquement lié à un fournisseur donné.

Une injection vers la GRC classique encore théorique

Viavoo indique que son service est capable d'interagir avec des GRC traditionnelles grâce à ses API, y compris en injectant des données issues de l'expression sur Twitter ou Facebook dans les comptes clients concernés, sous réserve que l'entreprise dispose des pseudos employés par ses clients sur ces services. Mais ce service est de ce fait complexe à mettre en oeuvre. Il n'est pas à ce jour opérationnel chez un client réel.

Le budget du projet est confidentiel mais Viavoo indique que son offre est disponible à partir de 1500 euros/mois en version de base, les tarifs évoluant en fonction du nombre d'accès et des volumes traités (jusqu'à un peu moins de 200 000 euros/an, 3000 euros/mois étant fréquent). La DSI doit uniquement mettre en place les flux internes vers Viavoo et la mise en production d'un projet se fait donc en moins de deux mois à partir de la commande.

Crédit photo : Copyright vente-privee.com
(...)

(08/06/2011 10:34:16)

Les technologies de l'IBM Watson appliquées au big data

Mi-février, le superordinateur Watson conçu par IBM a battu deux champions au jeu télévisé Jeopardy, un quizz de culture générale où il s'agit de trouver une question à partir d'une réponse. Pour y parvenir, Watson a, entre autres, absorbé une quantité phénoménale d'informations disponibles sur le web et d'une qualité toute relative. Des données qui ont nourri ses multiples algorithmes sollicités à chaque réponse pour aboutir rapidement à une question associée à un indice de confiance. Une partie du problème auquel se sont attelés les 25 informaticiens d'IBM qui ont développé Watson est similaire à celui que rencontrent les Google et Facebook lorsqu'il s'agit de scanner d'énormes quantités de données non-structurées pour répondre rapidement à une requête. Un problème, ou plutôt une solution, dont ils ont d'ailleurs fait un modèle d'affaires avec le succès que l'on connaît.

Bien loin des laboratoires de recherche, des plateaux télé et des géants d'Internet, les entreprises, grandes et petites, font face à des défis analogues. D'un côté, elles sont de plus en plus conscientes que l'analyse des données et les découvertes (insights) qui en résultent sont essentielles au pilotage informé de leurs opérations et à leur compétitivité, d'où l'essor des projets de business intelligence. De l'autre, elles croulent sous une masse indigeste d'informations de toutes sortes et de toute provenance le plus souvent négligées et considérées comme un problème. Disposer d'un Watson est sans doute un rêve que caressent beaucoup de leurs décideurs.

Big data: chercher d'autres bottes de foin

Selon une étude IDC commandée par EMC, l'univers digital - la somme de toutes les données numériques - a crû de 1,2 million de pétaoctets en 2010 et pourrait atteindre 35 millions de pétaoctets à l'horizon 2020. L'écrasante majorité de cette masse est constituée de textes et de fichiers audio et vidéo. Donc de données sans structure, contrairement à celles reposant dans une base de données classique. Cette déferlante concerne aussi les entreprises, qui sont sans cesse plus nombreuses à collecter des informations sur les réseaux sociaux, les outils collaboratifs et les centres d'appel. A cela s'ajoute de nouvelles données mises à disposition par des organismes publics ou générées par les senseurs dont sont équipés les smartphones.

Par leur énorme volume de l'ordre de plusieurs téraoctets, par leur qualité incertaine et par leur caractère fugace, ces big data ne ressemblent en rien aux données relationnelles qui alimentent les solutions de business intelligence usuelles (voir le graphique). Leur exploitation diffère tout aussi fondamentalement. Alors que la BI fournit des réponses exactes à des questions précises connues d'avance, l'exploration expérimentale des big data livre des réponses probables à des questions ad-hoc et suggère de nouveaux questionnements. Pour employer la métaphore de Tom DeGarmo, responsable des technologies chez PricewaterhouseCoopers: «Au lieu de trouver une aiguille dans une botte de foin, ces techniques permettent de chercher d'autres bottes de foin».

[[page]]

Il y a quelques années encore, ce type d'analyse à grande échelle était surtout pratiqué par des instituts de recherche scientifique (physique, astronomie, bioinformatique, finance), souvent à l'aide de superordinateurs extrêmement onéreux. Faute visibilité quant à leur potentiel, faute de compétences statistiques et faute de moyens technologiques et financiers, les entreprises ne s'y sont guère intéressées. Sous l'effet de la prolifération de données non-structurées (typiquement 80% des données d'une entreprise), le domaine connaît un intérêt nouveau dans des sociétés qui se demandent comment exploiter ces données brutes qui sommeillent ou qui n'ont pas (encore) fait l'objet de formalisation par les architectes. A l'affût de nouveaux besoins, plusieurs grands fournisseurs IT ont d'ailleurs acquis récemment des sociétés spécialisées dans le domaine du big data: EMC avec Greenplum, IBM avec Netezza, HP avec Vertica ou encore Teradata avec Aster Data Systems début mars. Un mouvement également suivi par plusieurs éditeurs de business intelligence qui élargissent leur offre à l'analyse de larges volumes de données. Le dénominateur commun de la plupart de ces solutions est leur utilisation du projet open source Hadoop dérivé des développements de Google.

Hadoop: un système d'analyse et de stockage extensible

Au début des années 2000, face à la croissance folle des contenus internet, Google a en effet dû développer sa propre solution pour être en mesure de continuer à les indexer en des temps raisonnables. Les ingénieurs de la société ont développé un système de stockage robuste et extensible (GFS) et un système de traitement des données répartissant les tâches sur un grand nombre de serveurs fonctionnant en parallèle et à même de synthétiser leurs résultats (MapReduce). Ainsi, au lieu de s'appuyer sur des algorithmes complexes et des ordinateurs surpuissants, la solution de Google utilise des batteries de serveurs standards, qui peuvent être ajoutés ou supprimés, auxquels sont confiées des tâches relativement simples. Le projet Hadoop est en fait une implémentation open source de MapReduce gérée par la fondation Apache, à laquelle sont venus se greffer d'autres composantes destinées aux big data, comme un système de fichiers distribué (HDFS) ou une base de données (HBase). Yahoo! est l'un des pionniers en la matière et coopère avec Facebook, dont le cluster Hadoop serait actuellement le plus gros du monde (voir le lien à droite).

La robustesse, le coût et la flexibilité de cette technologie séduisent également des sociétés hors du monde internet. Le New York Times a ainsi utilisé Hadoop pour générer les PDF de 11 millions d'articles publiés entre 1851 et 1922, et l'emploie désormais pour l'analyse de texte et le web mining. La chaîne de librairies Barnes & Noble l'utilise pour comprendre les comportements d'achats de ses clients sur ses divers canaux de distribution. Disney teste la technologie avec des objectifs similaires en s'appuyant sur des ressources dans le cloud et sur des serveurs inutilisés en raison de ses efforts de virtualisation. McAfee y fait par exemple appel pour détecter des corrélations parmi les spams. Pour simplifier les déploiements, ces sociétés et les autres utilisateurs précoces du big datausent fréquemment d'outils commerciaux basés sur Hadoop qui offrent une large palette de fonctions additionnelles.

[[page]]

Pour Abdel Labbi, responsable de la recherche en analyse de données au centre de recherche d'IBM à Zurich, ces développements technologiques conduisent à une convergence entre les données transactionnelles en mouvement, typiques des acteurs du web, et les données au repos des sociétés traditionnelles». Exemple de cette convergence, l'analyse en temps réel des données récoltées sur les points de vente pour dresser des profils de clients. «Ce n'est plus la requête qui va chercher des données, mais les données qui découvrent des phénomènes», estime le chercheur. Le lien avec Watson - l'ordinateur de Jeopardy - apparaît d'emblée et ouvre de nouvelles perspectives.

Watson : vers une analyse intelligente des données

Pourtant, de prime abord, le superordinateur d'IBM ne représente pas une innovation majeure mais plutôt une manière innovante de combiner des technologies existantes. Au niveau hardware, Watson est «massivement redondant» pour reprendre les termes du responsable de sa conception David Ferucci, avec une kyrielle de transistors économiques. Idem pour les algorithmes qui sont nombreux mais relativement simples. Quatre points cependant en font une machine assez prodigieuse pour disputer la victoire à des humains. Tout d'abord, sa capacité à exécuter simultanément de multiples algorithmes, donc à suivre plusieurs pistes en parallèle, à une très grande vitesse. Ensuite, sa faculté d'apprentissage qui lui permet avec le temps d'évaluer quelles ressources et quels algorithmes donnent les meilleurs résultats. Troisièmement, son habilité à décider entre plusieurs réponses et à leur attribuer un indice de confiance. Enfin, sa compréhension du langage naturel et donc son habileté à résoudre des ambiguïtés.

La combinaison de ces diverses facultés pourrait avoir dans le futur un impact considérable sur l'analyse de données en entreprise. La compréhension du langage permettrait par exemple d'étendre l'analyse aux requêtes orales des clients pour y répondre de manière automatisée. Associée aux recherches en analyse sémantique et des sentiments, ce type d'intelligence pourrait répondre précisément à une question ad-hoc, au lieu de simplement pointer sur une source dans laquelle se trouve la réponse comme le font des moteurs de recherche. Elles pourraient également résoudre le problème des données non-structurées en faisant émerger une structure sur la base de corrélations. Comme le dit Abdel Labbi, on pourrait déboucher sur des systèmes où «la donnée trouve la donnée».

www.ictjournal.ch

(...)

(01/06/2011 11:04:01)

Ecocloud, un centre européen du cloud à Lausanne

L'EPFL à lancé aujourd'hui son projet Ecocloud, un consortium de 12 laboratoires travaillant à des projets de recherche dans le domaine du cloud computing et des centres de données. Doté d'un budget annuel de 1,4 millions de francs, le centre compte également plusieurs entreprises privées affiliées parmi lesquelles HP, IBM, Intel, Microsoft, Oracle ou encore Credit Suisse. Babak Falsafi, directeur du projet et professeur au Laboratoire d'architecture de systèmes parallèles de l'EPFL, espère faire d'Ecocloud «un centre de compétences reconnu au niveau européen dans le domaine du cloud computing».

Améliorer l'efficacité énergétique

Réunis au Rolex Learning Center, les intervenants ont expliqué combien l'essor du cloud computing répondait à une production et à une demande croissantes de données de la part des particuliers, des entreprises et du monde académique. Un développement supporté en arrière-plan par des centres de données consommant des quantités toujours plus importantes d'énergie.

Le projet d'Ecocloud est ainsi de développer des technologies permettant d'améliorer l'efficacité énergétique globale de cette nouvelle informatique et donc de garantir le développement durable du secteur. Un défi de taille étant donné que l'évolution des processeurs ces dernières années ne s'accompagne plus de gains en efficience. «Nous sommes face à un mur énergétique», explique Babak Falsafi.

Gestion des données, spécialisation et intégration verticale

Le projet Ecocloud comprend plusieurs axes de recherche, parmi lesquels la gestion de données sous la direction d'Anastasia Ailamaki (Data-Intensive Applications and Systems Lab) et l'efficacité énergétique sous la direction de David Alienza (Embedded Systems Lab). Dans le domaine de la gestion de données, les recherches se centrent sur le développement de middleware associant l'extensibilité caractéristique du cloud (big data, no SQL) et les atouts des bases de données classiques (robustesse, sécurité).

En ce qui concerne l'efficience énergétique, plusieurs pistes sont explorées. D'abord l'amélioration des composants eux-mêmes (refroidissement liquide des processeurs, matériel spécialisé pour certaines tâches, prévisibilité des défaillances). Ensuite, une meilleure intégration des couches de composants de façon à optimiser leur consommation énergétique totale, par exemple en permettant aux équipements réseau de recevoir des informations des applications sur leurs besoins en connectivité. A terme, la vision d'Ecocloud est de pousser l'intégration sur l'ensemble de la chaîne, du terminal à l'approvisionnement énergétique.

Illustration principale : Pour la keynote, Ecocloud a pu compter sur Jim Larus, directeur du groupe de recherche extreme computing chez Microsoft 


www.ictjournal.ch

(...)

(31/05/2011 17:23:30)

4èmes Assises du M.E.S. : comment déployer un système de production

Les directions industrielles et informatiques sont attendues la semaine prochaine aux 4èmes Assises du M.E.S. organisées à Paris le mardi 7 juin (*). Une journée consacrée au Manufacturing Execution System, logiciel de contrôle et de suivi de production, complémentaire à l'ERP. Au programme de cette journée, plusieurs témoignages sont prévus sur les meilleures façons de déployer un Manufacturing Execution System (MES) dans différents secteurs d'activité : la production de vitrage, la fabrication de produits de verre résistant à la chaleur, l'agro-alimentaire, la pharmacie, l'activité combustible.

Le cycle de conférences prévoit également d'évoquer l'apport du MES dans la démarche d'amélioration continue et l'intérêt de faire converger MES et système qualité. Parmi les autres sujets abordés au cours de la journée figurent la remontée d'indicateurs de performance à travers un tableau de bord accessible aux différents utilisateurs, les moyens de capitaliser le savoir-faire des usines à travers le paramétrage du système ou, encore, le MES comme outil de traçabilité complète des produits. L'après-midi, les ateliers proposés sont regroupés autour de trois parcours : le premier portant sur l'amélioration continue et le savoir-faire métier, le deuxième sur le MES dans le système d'information et le troisième, sur la performance en atelier.

La fonction production en première ligne

En amont de ces 4èmes Assises, une enquête préliminaire a été réalisée par l'organisateur de l'événement, Premium Contact, auprès des utilisateurs potentiels de MES pour mieux cerner leurs besoins et leurs attentes. Sur les 68 répondants, ils ne sont que 10% à estimer avoir une excellente connaissance du principe général de fonctionnement de ces solutions de gestion de pilotage de production et 29% à la juger insuffisante. Entre les deux, 28% trouvent que leur connaissance du sujet est bonne et 32% moyenne. Ils appréhendent dans des proportions équivalentes les principaux domaines d'application du MES. Assez naturellement, les répondants évoluant dans la fonction Production estiment plus souvent avoir une bonne connaissance de ces outils « métiers », par comparaison avec les personnes évoluant dans la fonction Informatique. Et lorsqu'il s'agit de prendre la décision d'intégrer une solution MES dans l'entreprise, c'est à la direction industrielle qu'elle revient, dans 38% des cas, contre 4% à la direction informatique seule. Malgré tout, dans 58% des cas, la décision est prise à la fois par les deux directions.

L'enquête fait apparaître par ailleurs que les acteurs du marché des MES sont encore mal connus des utilisateurs. Entre 46% et 54% des personnes ayant répondu au questionnaire se perçoivent insuffisamment informés à leur sujet, qu'il s'agisse des cabinets de conseil spécialisés (seuls 9% des répondants jugent qu'ils les connaissent bien), des éditeurs de MES (47% estiment en avoir une connaissance moyenne à bonne) ou des intégrateurs de ces solutions (finalement les mieux connus, 52% en additionnant les réponses moyennes et bonnes).

(*) Lieu : Les salons de l'Aveyron à Paris-Bercy Village, 17 rue de l'Aubrac, 75012 Paris.

Illustration : les Assises du M.E.S.

(...)

(31/05/2011 11:20:47)

Sage vise des déploiements étendus avec son ERP X3

La solution de gestion Sage ERP X3 poursuit sa conquête internationale. Il y a un peu plus d'un an, cette suite intégrée d'origine française a été choisie pour porter les couleurs du groupe britannique Sage sur les différents continents, auprès d'entreprises de taille moyenne. Avec un certain succès si l'on en juge par les 3 000 clients revendiqués à ce jour par l'éditeur. Celui-ci va continuer à développer cette offre sur son actuelle base installée, en étendant son périmètre d'utilisation.

Il veut aussi la faire croître auprès des entreprises ayant des visées mondiales, sur le haut du segment visé, le « upper midmarket », ainsi que le désigne Guy Berruyer, CEO de Sage depuis juillet 2010. « C'est un marché encore très fragmenté », contrairement aux segments des grands comptes et des TPE/PME, où certains acteurs sont localement très bien implantés [Sage en particulier, dans les petites structures], a-t-il rappelé la semaine, lors de la conférence web présentant la version 6.2 de l'offre ERP X3.

Une conférence tenue en anglais et orchestrée « à l'américaine », tambour battant au cours de laquelle Guy Berruyer a annoncé que sa société avait réalisé une progression à deux chiffres sur son activité ERP X3. Christophe Letellier, directeur général de l'offre au niveau mondial, décompte une centaine de nouveaux clients chaque trimestre, soit deux fois plus qu'il y a un an. Pour doper ce développement, Sage confirme sa volonté d'attirer de nouveaux partenaires (il en compte 200 à ce jour, soit un tiers de plus que l'an dernier), qu'il s'agisse de revendeurs, d'intégrateurs, de consultants ou d'éditeurs indépendants (ISV).

Au passage, Christophe Letellier a tenu à insister sur le niveau d'exigence apporté à ce recrutement. « Nous avons réalisé une forte progression aux Etats-Unis et au Royaume-Uni », a-t-il précisé. Un nouveau programme de certification de partenaires est mis en place au niveau mondial, avec notamment l'objectif de constituer des offres axées sur certains secteurs d'activité, en particulier la distribution, les industries (d'assemblage et de flux/process) et les entreprises de services, en complément des fonctions métiers déjà disponibles dans ERP X3. La première offre verticale à être livrée s'adressera au secteur des services.

Un support « premium » au niveau mondial

Les ISV peuvent développer des solutions métiers en s'appuyant sur la plateforme technologique SAFE X3 sur laquelle repose la suite de gestion ERP X3. SAFE X3 donne accès aux mécanismes de workflow, ainsi qu'à des fonctions de Business Intelligence. Dans la version 6.2 de l'offre, cette plateforme s'enrichit d'une méthodologie pour exposer les services web et d'une infrastructure de portail.

Parmi les autres initiatives de Sage figure la disponibilité d'un service de support « premium » pour ERP X3, complété d'une méthodologie de déploiement de sa solution à l'échelle mondiale (*) et, là aussi, d'un programme de certification de consultants.

Illustration : Guy Berruyer, CEO de Sage Group plc, lors de la conférence web du 26 mai 2011.

(*) Méthodologie baptisée Isigma (International Sage Implementation Global Methodology Approach)[[page]]

Du côté de l'ERP proprement dit, des améliorations fonctionnelles ont été apportées à plusieurs modules, principalement la finance, le suivi de production et la gestion commerciale. La version 6.2 est disponible pour l'édition Standard de l'offre, en Europe et aux Etats-Unis (la Standard Edition est destinée aux entreprises déployant l'ERP localement et aux filiales de groupe). 

Lors de la conférence web, Emmanuel Obadia, vice-président senior de Sage ERP X3, a annoncé ou rappelé les différents accords OEM noués avec les éditeurs français Talend, Netvibes et Exalead (filiale de Dassault Systèmes), respectivement spécialisés dans l'intégration de données, la personnalisation de tableaux de bord (avec agrégation de widgets) et les moteurs de recherche. La technologie Exalead CloudView a été choisie par Sage pour l'option de recherche qu'il propose dans ERP X3 6.2, sous la forme d'un widget s'insérant dans son portail (ce dernier étant intégré à SAFE X3). A partir de cette fenêtre de saisie, les utilisateurs pourront effectuer des requêtes en langage naturel pour retrouver des informations gérées dans les bases Sage (données et métadonnées).

ERP X3 peut fonctionner avec Oracle Exadata

La collaboration avec Netvibes, plus ancienne, avait déjà débouché sur la mise à disposition du composant Enterprise Webtop, sous la forme d'un service en ligne. Celui-ci permet de se connecter de façon sécurisée à ERP X3 et à ses workflows, à partir de tableaux de bord personnalisés qui comporteront aussi des informations venant de flux RSS et de médias sociaux (affichés à travers des widgets). L'intérêt est de pouvoir donner accès à l'ERP à partir d'un terminal mobile, non seulement aux collaborateurs, mais également aux fournisseurs ou partenaires. Guy Berruyer a rappelé que la stratégie cloud de Sage ne consistait pas à réécrire ses applications mais à proposer à ses clients des extensions fonctionnelles dans le cloud.

Quant à Talend, il travaille autour du protocole de communication SData2 (**) destiné à relier entre elles les applications de Sage. Dans ce domaine, la dernière intégration en date rapproche ERP X3 et la solution de CRM SalesLogix. Un autre accord OEM, avec l'éditeur Version One, permet désormais à Sage de proposer une solution de gestion électronique de document (EDM), sous la forme d'une extension à sa suite intégrée.

Enfin, le groupe britannique a annoncé la semaine dernière qu'il avait renforcé l'intégration de Sage ERP X3 avec la base de données Oracle 11g et que son offre pouvait être installée sur la plateforme de stockage Oracle Exadata, optimisée à la fois pour les applications de datawarehouse et transactionnelles.

Illustration : Guy Berruyer, CEO de Sage Group plc, lors de la conférence web du 26 mai 2011.

(*) Méthodologie baptisée Isigma (International Sage Implementation Global Methodology Approach)

(**) SData (Sage Data) permet aussi l'intégration avec le web. Il s'appuie sur HTML et le format de syndication ATOM apparenté à XML.

(...)

< Les 10 documents précédentsLes 10 documents suivants >