Vous êtes CEO de Qlik depuis deux ans. Quels ont été vos principaux défis jusqu’à présent ?

Le premier challenge en tant que PDG de Qlik a consisté à redéfinir ce que cela signifie d’être un acteur majeur sur le marché des solutions modernes de BI (Business Intelligence, ou « informatique décisionnel ») et d’analyse de données. Ce marché est extrêmement dynamique, et il était impératif de créer une vision allant au-delà des traditionnels tableaux de bords et analyses. Nous avons abordé ce défi sous deux angles principaux. D’abord, à travers l’innovation, en intégrant de l’intelligence augmentée directement dans notre plateforme. Ensuite, à travers des rachats permettant de tirer davantage de valeur des données et d’aider les clients dans leurs stratégies globales autour de l’analytique. Ces acquisitions couvrent le pipeline de données, ainsi que les technologies d’analyse en temps réel, ou streaming analytics. Nous avons acquis des capacités et les avons très bien intégrées à notre plateforme. Parmi ces acquisitions, Attunity est devenu Qlik Data Integration, Podium Data est devenu Qlik Data Catalyst, Crunch Data a donné Qlik InsightBot et RoxAI, Qlik Alerting. Si l’on se base sur les retours des analystes au cours de notre événement QlikWorld [organisé mi-mai 2020 en ligne], l’ensemble de fonctionnalités ainsi bâti entre vraiment en résonance avec les attentes. Il est perçu comme répondant à de vrais besoins chez les clients.

Face à la pandémie de Covid-19, notre principal défi a été de préserver la sécurité et le bien-être de tous nos employés dans le monde, tout en garantissant la continuité des activités, en aidant autant que possible nos clients avec nos solutions. Les données représentent une arme puissante dans la lutte contre la pandémie. Nous avons ainsi observé certains déploiements de nos technologies au sein d’organisations de santé globales, comme le National Health Service au Royaume-Uni. Nous avons travaillé avec les équipes sur la ligne de front pour aider les travailleurs dans la santé à comprendre des données critiques, ce qui leur a permis de réagir vite et en confiance tout au long de ce qui a été une situation extraordinaire.

Il existe une demande croissante pour l’analyse de données en temps réel, en particulier pour des cas d’usage opérationnels. Comment Qlik répond-il à ces besoins ?

En effet, la plupart des grandes organisations ont aujourd’hui besoin de fonctionner en temps réel. Par exemple, elles veulent réagir suffisamment vite pour pouvoir suivre l’efficacité de leurs campagnes marketing, détecter des anomalies évoquant des fraudes, fournir des services à vocation humanitaire ou médical, offrir une personnalisation poussée ou même optimiser leurs chaînes d’approvisionnement. Tous ces événements imposent d’agir au moment opportun, ce qui nécessite des données pertinentes et à jour. Les clients se tournent vers des fournisseurs comme Qlik pour les aider à donner du sens à leurs données et à fournir plus facilement des données précises et pertinentes au moment de prendre une décision. C’est là que notre dernière acquisition, Qlik Alerting, intervient. Cette plateforme d’alerte intelligente, intégrée avec Qlik Sense, déclenche des alertes en temps réel à partir des données et des règles métiers, et les envoie par mail ou sur les mobiles afin d’agir immédiatement là où l’impact sur les résultats sera le plus important. Elle peut également déclencher des réponses et des actions automatisées en se basant sur ces règles métiers.

 

Cela signifie que les utilisateurs métiers peuvent se concentrer davantage sur la prise de décision stratégique avec des données qui arrivent au moment adéquat quand ils travaillent, au lieu de perdre un temps précieux à chercher de l’information dans des tableaux de bord. Nous permettons également une diffusion davantage temps réel des données à travers Data Integration, qui accélère la découverte et la mise à disposition de données temps réel, prêtes pour l’analyse en automatisant la capture des flux de données (Change Data Capture), le raffinage, le catalogage et la publication vers des systèmes analytiques à travers l’organisation. Avec cette solution, les clients savent qu’ils disposent des données les plus à jour, harmonisées et qui alimentent directement leurs outils d’analyse.

La popularité de Qlik s’est bâtie sur l’idée que la BI devait être accessible à tous, en donnant une véritable autonomie aux utilisateurs. Est-ce que cette démocratisation est achevée ?

Nous pensons que les données doivent être disponibles pour tout collaborateur qui en a besoin. L’une de nos ambitions est de créer un monde de culture de la donnée, où chacun puisse l’utiliser pour améliorer la prise de décision et résoudre les défis les plus complexes. L’ère de la démocratisation de la data a assurément démarré, mais il reste beaucoup d’aspects à prendre en compte. Vous ne pouvez pas simplement diffuser des données à tous sans une vraie hygiène de la donnée ni sans gouvernance en place, des éléments qui constituent une brique importante de notre plateforme d’intégration de données, à travers notre catalogue de données Data Catalyst. Une fois que vous disposez d’un solide système de gouvernance, l’autre enjeu est de comprendre si votre équipe est prête à exploiter cette donnée de façon efficace. Est-ce que les dirigeants encouragent une culture de la donnée ? Les employés ont-ils les compétences pour comprendre les données et en tirer de la valeur ?

Ces questions sont mises en évidence par une enquête réalisée avec Accenture dans laquelle 87% des répondants français considèrent les données liées à leur travail comme un actif. Néanmoins, seule une faible proportion des salariés se disent suffisamment confiants dans leur capacité à lire, comprendre, travailler et s’appuyer sur les données pour prendre de meilleures décisions. Ceci peut s’expliquer par le fait que les données et outils analytiques ont longtemps été réservés à une petite élite au sein des entreprises. Ce qui est intéressant, c’est que nous observons une prise de conscience croissante chez une partie de nos clients, qui se reflète dans diverses initiatives, comme la mise en œuvre de programmes de formation, la nomination de responsables de la Data Culture, etc. Depuis janvier 2020, nous accompagnons de façon plus directe les clients dans leur transformation vers un modèle « data-driven » avec notre offre Data Literacy as a Service. Celle-ci regroupe de la formation continue, des services de conseil et de support, pour permettre aux entreprises d’établir une culture de la donnée et d’améliorer leur niveau d’aisance avec la data, tout en accroissant la valeur de leurs données.

Qlik affiche une forte ambition autour de l’intelligence artificielle (IA) et du traitement du langage naturel (NLP). Comment ces technologies peuvent-elles accroître la valeur apportée aux clients ? Voyez-vous une demande pour des interfaces pilotées par la voix ?

La vision de Qlik autour de l’IA et du NLP consiste à les utiliser pour améliorer la capacité des utilisateurs à lire, analyser, comprendre et se servir des données, et, par-dessus tout, accroître leur aisance avec les données. Pour nous, l’IA est de l’intelligence augmentée : nous exploitons l’IA et les capacités cognitives pour aider les utilisateurs qui ont des besoins analytiques et développer la culture de la donnée parmi eux, quels que soient leur rôle et leurs compétences. Parmi les bénéfices : la démocratisation de l’information, la baisse de la barrière à l’entrée pour les usages analytiques et la hausse du niveau d’éducation autour des données. Les volumes de données augmentent et les décisions cross-fonctionnelles deviennent plus complexes à optimiser dans ce monde digital. Ainsi, le nombre de variables à prendre en compte pour un résultat ou une action grimpe jusqu’au point où explorer toutes les possibilités et déterminer les éléments les plus pertinents et actionnables est quasi impossible, ce qui expose de plus en plus métiers et analystes aux biais de confirmation. Ils en viennent souvent à explorer leurs propres hypothèses biaisées, passant à côté d’éléments clés et tirant des conclusions incorrectes ou incomplètes, ce qui affecte négativement les décisions et les résultats. En utilisant des algorithmes et du machine learning, les solutions d’intelligence augmentée trouvent automatiquement des faits pertinents et les restituent de façon visuelle et intelligible aux utilisateurs. Nous allons voir davantage d’adaptation des solutions BI et analytiques dans les organisations dotées de capacités d’intelligence augmentée.

Il existe de nouvelles fonctionnalités regroupées sous le terme d’IA, comme l’accélération et l’automatisation de la connaissance. L’objectif est d’abaisser la barrière à une large adoption des outils analytiques et de les rendre plus faciles à utiliser pour tous. C’est là que nous observons l’usage du NLP et des interfaces basées sur la voix. Chez Qlik, les technologies analytiques conversationnelles embarquées dans Insights Bot en sont un bon exemple. Mais il en existe aussi d’autres, comme la visualisation intelligente, où des algorithmes sont appliqués sur les représentations visuelles pour mettre en relief des anomalies ou des motifs auprès des utilisateurs. En tant qu’humains, nous sommes très bons pour reconnaître des motifs. Cet ensemble d’outils ne se limite donc pas à fournir des capacités de recherche en langage naturel aux utilisateurs. Notre but chez Qlik est de créer des expériences innovantes qui combinent à la fois des capacités visuelles et du NLP pour la découverte augmentée de données, de façon à permettre aux utilisateurs des « découvertes inattendues ».

De plus en plus de fournisseurs de BI adoptent des approches uniquement cloud. Percevez-vous un vrai mouvement dans ce sens  ? Le on premise a-t-il encore une place ? Allez-vous privilégier Qlik Sense pour les évolutions ou est-ce que les clients de QlikView peuvent aussi espérer des innovations  ?

Il y a une transition vers les plateformes BI dans le cloud, alors que les entreprises migrent une partie, si ce n’est toutes leurs données dans le cloud. Cependant, il est important de noter que les fournisseurs cloud natifs reconnaissent toujours la valeur et le besoin des solutions on premise. C’est une bonne nouvelle, car nous avons une grande base de clients qui utilisent à la fois les solutions cloud et sur site. Nous avons toujours cru dans le fait d’offrir le choix et d’être capable d’accéder et d’analyser les données où qu’elles se trouvent, ce qui est l’essence même de notre stratégie multicloud. Concernant votre question sur Qlik Sense et QlikView, nous avons annoncé cette année notre « Analytics Modernization Program », conçu pour donner davantage de choix aux clients et rendre l’adoption de nos solutions analytiques cloud plus simple et rentable. Ce programme offre aux clients de QlikView une vraie opportunité de développer l’usage des outils cloud à leur rythme, tout en continuant à tirer de la valeur de leur solution existante sur site. En créant cette rampe d’accès au cloud, les clients jouissent de toutes les innovations inhérentes à notre offre SaaS, tout en continuant de faire tourner leurs applications QlikView dans notre plateforme SaaS. Avec cette possibilité d’héberger leurs documents QlikView dans le cloud, les clients peuvent significativement réduire leurs coûts de possession et profiter de solutions analytiques modernes. Cette stratégie de coexistence entre les deux produits est conçue pour donner de la flexibilité et rassurer nos clients QlikView, tout en leur permettant de bénéficier de nos investissements dans Qlik Sense.

Les experts parlent de plus en plus de DataOps. S’agit-il d’une tendance en hausse  selon vous ? Comment Qlik prévoit-il de supporter cette méthodologie ?

Oui, le DataOps est assurément une tendance qui progresse et que nous avons identifiée comme une demande croissante pour 2020 et les années suivantes. Alors que l’analytique en self-service est à l’ordre du jour depuis un certain temps, le DataOps a été introduit récemment pour apporter plus d’agilité sur la partie gestion des données. Cette méthodologie automatisée tirée par les processus est conçue pour améliorer la qualité et pour réduire le cycle de gestion des données pour l’analyse. Avec un focus sur la livraison continue, elle s’appuie sur les ressources IT et automatise le test des données et leur déploiement. Cela est facilité par des technologies telles que l’intégration des données en temps réel, le change data capture [CDC, qui permet de capturer les changements de données dès qu’ils se produisent] et les pipelines de flux de données. Une initiative DataOps bien déployée, qui associe les personnes, les processus et la technologie, aide à fournir la bonne donnée aux utilisateurs métiers au bon moment pour leur apporter des informations susceptibles de produire des résultats. Qlik supporte déjà cette méthodologie sur sa plateforme avec Data Integration, qui permet de mettre en place des pipelines de données et d’analyse plus rapides, et avec Analytics qui propose une exploration intuitive des données.

Après le rachat de Looker par Google et de Tableau par Salesforce, il ne reste que quelques « pure players » sur le marché, dont Qlik. Quelles sont vos points forts dans cette compétition ? Comment décririez-vous le marché de la BI et de l’analytique aujourd’hui et quels sont les projets des clients ?

Les entreprises que nous avons acquises au cours des deux dernières années nous ont permis de créer la seule plateforme réalisant de bout en bout la gestion de données et l’analyse. Parmi les acteurs de l’analytique, Qlik est la société indépendante la plus importante et la plus rentable, ce qui signifie que nous pouvons continuer à investir dans l’innovation là où c’est nécessaire, tout en restant entièrement agnostique face aux besoins des clients. Nous savons que les clients souhaitent pouvoir exploiter plusieurs clouds pour des raisons de flexibilité et de coût. Ceux qui cherchent à déplacer, intégrer, gérer et analyser leurs données à travers différents clouds, en incluant leurs propres datacenters, savent qu’ils peuvent venir nous voir et nous chercherons réellement à mettre en œuvre cette vision sans essayer de verrouiller leurs données dans un cloud, quel qu’il soit.

À cela s’ajoute le fait que le marché doit aller au-delà de la BI traditionnelle. Chez Qlik, nous sommes convaincus que les besoins des clients abordent une nouvelle phase que nous appelons l’Active Intelligence. Contrairement à la BI traditionnelle, elle réalise le potentiel des pipelines de données en réunissant les données statiques et en mouvement pour extraire de l’intelligence continue à partir des informations mises à jour en temps réel, avec l’objectif spécifique de prendre ou de déclencher une action immédiate. Cette approche élimine les pertes de données dont souffrent de nombreux clients, en comblant les trous et en transformant des données pertinentes en données actionnables (Qlik Data Integration), des données actionnables en informations directement exploitables (Qlik Analytics) et des investissements en valeur, via le programme d’accompagnement Data Literacy as a Service [NDLR : conseils et apprentissage pour acquérir les clés d’une bonne compréhension des données ]. Grâce à cette offre complète, nous sommes plus que jamais dans une position unique pour aider nos clients à exploiter les données pour accélérer la création de valeur.

Pourriez-vous partager avec nous votre vision du futur de l’analytique ?

Elle correspond en grande partie à ce que nous venons d’évoquer : le passage de l’intelligence passive à l’intelligence active [NDLR : de l’analyse de données passive à l’analyse active] qui crée pour les organisations une plus grande capacité à transformer les données en informations pour agir. Les clients réfléchissent de plus en plus à la façon dont ils peuvent opérer cette transition et quels manques ils doivent combler avant de pouvoir mieux exploiter les données pour obtenir des résultats à grande échelle. Les entreprises comprennent aujourd’hui qu’elles doivent maximiser la valeur des données qu’elles détiennent et elles prennent conscience qu’elles ont besoin d’une stratégie de mise à l’échelle, à la fois pour gérer l’entrée massive de données en continu et pour la rendre plus exploitable par davantage de personnes dans l’organisation pour parvenir à de meilleures décisions.

Nous l’avons clairement vu dans la récente étude d’IDC que nous avons sponsorisée. Celle-ci interroge 1 200 responsables métiers sur leurs stratégies de données et leurs performances. Elle montre une relation directe entre la capacité renforcée de transformer des données en informations [data-to-insights] à travers des investissements sur le pipeline de données - qui permettent de combler les lacunes entre gestion de données et solutions analytiques - et la prise de décision qui débouche sur des résultats métiers et commerciaux. L’impact sur les résultats financiers est substantiel. Dans l’étude, parmi les entreprises ayant les meilleures capacités démontrables de conversion des données en informations [data-to-insights], 74% ont indiqué que leurs profits avaient augmenté en moyenne de 22% et 75% que leur chiffre d’affaires avait progressé en moyenne de 21%. Il s’agit là d’impacts vraiment importants, obtenus par une capacité plus élevée à pouvoir transformer les données et l’analytique en informations apportant de la valeur. Et c’est dans cette direction que Qlik continuera à se diriger.