Rencontré lors d'un IT Press Tour à Palo Alto fin janvier 2026, Jamie Lerner, cofondateur et directeur d'Helikai, revient sur la genèse de sa société créée en juillet 2025 avec Ross Fujii. Le projet est né suite au départ de Jamie Lerner de Quantum, où il avait constaté les limites des approches traditionnelles d'IA. « Quand Ross et moi travaillions dans une entreprise cotée en bourse, j'avais lancé un mandat IA ambitieux avec des ingénieurs brillants et des projets significatifs. Après un an de travail, nous n'avions pas grand-chose à montrer. C'est assez typique quand les entreprises débutent avec l'IA », explique-t-il. Cette expérience a été décisive. Face à l'échec de projets trop ambitieux, Jamie Lerner a changé de stratégie radicalement. Il a demandé à ses équipes de simplement faire fonctionner quelque chose de simple : valider une adresse, calculer des frais d'expédition. « Nous sommes passés d'idées très grandioses à des petites étapes. C'est devenu le fondement de notre approche micro-IA », précise-t-il. Cette philosophie est au cœur d'Helikai (heli pour ascension en grec et kai pour océan en hawaïen), qui se distingue des modèles IA généralistes comme OpenAI ou Gemini. 

Des agents spécialisés pour une précision industrielle 

Les agents développés par Helikai, baptisés « Helibots », sont conçus pour effectuer des tâches très spécifiques. La société dispose d'un catalogue de plus de 200 agents qui couvrent une grande variété d'applications : validation d'adresses, génération de contrats, traitement de factures, analyse d'images médicales, sous-titrage multilingue ou encore restauration de films. « Nos agents font une seule chose. Nous avons un agent qui ne sait lire qu'un bon de commande, mais il le lit avec une précision de 100% de qualité industrielle. Nous avons un agent qui valide uniquement les adresses », souligne Jamie Lerner. Cette approche micro-IA est capable d'atteindre une précision impossible avec les modèles généralistes. Les systèmes ERP d'entreprise ne peuvent tolérer qu'une IA calcule les taxes « un peu différemment à chaque fois » ou envoie à « une adresse d'expédition légèrement différente ». Helikai travaille avec plusieurs secteurs : santé (pathologie, radiologie pédiatrique, essais cliniques), juridique (analyse de dépositions, rédaction de requêtes, eDiscovery), médias et divertissement (sous-titrage, doublage, effets visuels, restauration de films), et retail (génération de photographies produit, analyse de données clients). 

Helikai a conçu un catalogue de plus de 200 agents capables de prendre en charge des tâches bien délimitées, depuis la validation d’une adresse jusqu’à la génération d’un contrat ou l’analyse d’images médicales. (Crédit P.K.)

Une méthodologie collaborative et sur mesure 

L'approche d'Helikai repose sur une compréhension approfondie de la maturité IA de chaque client. « Nous ne faisons pas de simples visites commerciales. Nous ne nous asseyons avec quelqu'un que s'il est prêt à prendre une journée ou deux pour un engagement approfondi avec nous », affirme Jamie Lerner. La société utilise le modèle de maturité Mitre [du MIT] pour évaluer les capacités, la gouvernance IA et les objectifs réalistes de ses clients. Ces ateliers identifient les cas d'usage appropriés au niveau de maturité de l'entreprise. Helikai préconise de commencer par des projets simples utilisant des agents pré-construits du catalogue, avant de progresser vers des cas plus complexes. Les équipes d'Helikai sont composées à 50% d'ingénieurs et 50% d'experts métier (pathologistes, juristes, experts IT) qui collaborent pour décomposer les processus et identifier les tâches routinières à automatiser. 

Helikai s’appuie sur le modèle de maturité IA Mitre pour évaluer gouvernance, plateformes, qualité des données, gestion des biais et niveau de compétence interne. (Crédit P.K.)

La plateforme technique d'Helikai s'articule autour de trois composantes : Sprag (Secure Private Retrieval Augmented Generation), un serveur RAG privé compatible avec plus de 40 modèles d'IA ; KaiFlow, une couche d'orchestration avec humain dans la boucle qui insère des validations humaines à tout moment dans les workflows ; et Malama, des technologies d'optimisation des performances pour réduire la consommation de ressources. La plate‑forme Sprag combine ingestion de contenus, base vectorielle, bases relationnelles et orchestrateur d’agents, avec une couche KaiFlow de supervision humaine en continu. Tout est journalisé, de chaque décision de l’agent à chaque intervention humaine, afin de répondre aux exigences de traçabilité et d’audit des grands comptes. « Nous tissons des étapes déterministes classiques et des briques IA non déterministes dans un même workflow pour atteindre une fiabilité de 99% et plus, compatible avec les systèmes ERP », insiste Jamie Lerner. 

Des tarifs compétitifs et flexibles 

Côté modèle économique, Helikai propose plusieurs options. Un modèle Helikai Enterprise donne au client la possibilité de déployer un ou plusieurs serveurs Sprag dans son propre datacenter, en colocation ou virtualisés dans un cloud public, avec un contrat de support standard ou premium assurant une mises à jour des logiciels et des modèles IA. Une offre Helikai SaaS Cloud facture un abonnement mensuel pour l’accès aux Helibots et à Sprag, avec un engagement d’au moins douze mois, sans infrastructure physique à gérer et avec support premium inclus. Enfin, le modèle Pay-as-you-Go facture par projet, fichier, document ou minute de vidéo. « Nous facturons généralement l'équivalent humain moins 15%. Si vous payez un humain 75 dollars de l'heure à 2 dollars par image, nous facturons 1,50 dollar. Nous gagnons à chaque fois », conclut Jamie Lerner. Pour les serveurs on-premise, Helikai propose avec Supermicro des configurations de 22 000 à plusieurs centaines de milliers de dollars selon les besoins (Small, Medium, Large, X-Large). Petite curiosité, la start-up exploite les accélérateurs Furiosa, uniquement compatible avec Llama pour l’instant, pour le travail d’inférence.