L’éditeur états-unien de low code Appian a ouvert les portes de sa conférence européenne annuelle à Londres, le 15 novembre pour deux jours. Au programme, la version 22.4 de l’application avec une évolution majeure, la data fabric. Il s’agit d’une couche de virtualisation entre l’utilisateur low code et les datas nécessaires à l’alimentation des processus qu’il digitalise et automatise. Mike Beckley, CTO et un des quatre fondateurs d’Appian, en a dévoilé les détails au Monde Informatique à l’occasion de l’événement. « La data fabric est l’évolution majeure de notre nouvelle version, insiste-t-il. Elle en devient même le nouveau socle. » Un socle pour le BPM, la RPA, l’IA, le process mining et bien entendu le low code.

Cette couche virtuelle analyse la façon dont le processus développé en low code par l’utilisateur métier a été défini, et identifie automatiquement les sources de data et API dont il aura besoin. Une fois identifiées, ces données sont partitionnées et indexées dans cette couche virtuelle en fonction de cette analyse, pour être accessibles directement et traitées en quasi-temps réel. Le système optimise la récupération et le stockage des données et l’ensemble est synchronisé en permanence avec les informations d’origine.

Toutes les lectures et écritures passent par la data fabric

« Aujourd’hui, il y a tellement d’API et de sources de données différentes et distribuées en différents endroits, rappelle en effet le CTO. Jusqu’ici, une fois leur processus et leur workflow écrits, nos utilisateurs devaient demander à l’IT de trouver et de réconcilier pour eux les data nécessaires, ce qui pouvait prendre plusieurs mois ! » De quoi perdre tout le bénéfice du low code et le temps précieusement gagné avec le travail autonome sur les processus.

« Désormais, toutes les lectures et écritures de transactions passent par la data fabric, continue Mike Beckley. Les différentes sources peuvent être traitées comme un seul modèle de données. Et pour créer des interfaces, des rapports de conformité, pour automatiser les processus, inutile désormais de comprendre la documentation des API ou les détails techniques des systèmes sous-jacents. Sans compter que cela autorise à manipuler des données dont on n’a pas le contrôle direct, ce qui est le cas la plupart du temps. »

Une fonction d’auto-réparation

La data fabric stocke et synchronise la donnée, pour ne pas avoir besoin de retourner à la base d’origine en permanence. Mais en cas de baisse de la performance du système d’accès aux données ou de panne de réseau par exemple, cette couche virtuelle continue de fonctionner et s’auto répare. Dans ce cas, elle va systématiquement réessayer de se connecter, et si ça ne marche pas, elle va donner accès à la dernière version des données, mais également alerter l’administrateur à propos de la panne.

Enfin, le principe de cette couche virtuelle permet aussi de créer des opérations personnalisées spécifiques à la conformité, qui trient, agrègent et filtrent les données à partir des différentes API et sources. Un différenciateur important pour Appian « Nos clients sont principalement des banques, des assurances pour lesquels la régulation est centrale », confirme Mike Beckley. « Ils sont directement concernés par des régulations strictes et la surveillance croissante de la fraude ».

« Ce type d’entreprise a aussi besoin d’autonomie et de rapidité pour créer rapidement de nouveaux produits par exemple ou pour savoir quels sont les types de clients les plus profitables, continue-t-il. Pour cela besoin de rapidité, de fluidité, de simplicité, d’indépendance vis-à-vis de l’IT. » Mais le CTO se défend de promouvoir une solution dans laquelle l’IA remplace l’humain. Comme la plupart des éditeurs, il défend l’idée que la première accompagne le second. Mais quid des équipes IT ? Pour commencer, on peut arguer qu’à l’heure de la pénurie de développeurs informatiques, leur préférer des solutions d’automatisation n’est pas un problème. « Et il y a largement de quoi occuper les équipes IT par ailleurs, » ajoute pour terminer le CTO.