Issue de deux ans de R&D, sa solution TrustalAI-Vision analyse en temps réel la fiabilité des prédictions produites par les modèles d’intelligence artificielle.
Robotique industrielle, vision automatisée, drones et véhicules autonomes : l’intelligence artificielle s’impose progressivement dans des systèmes où chaque décision peut avoir un impact opérationnel immédiat. Mais une limite demeure largement reconnue par les industriels : la difficulté à mesurer la fiabilité d’une prédicition générée par un modèle IA. À mesure que l’IA devient une infrastructure industrielle critique, la question n’est plus seulement technologique : elle devient économique et juridique.
C’est à cette problématique que répond la start-up deeptech française TrustalAI qui annonce le lancement de TrustalAI-Vision, une solution logicielle capable d’évaluer en temps réel la fiabilité de chaque prédiction d’un modèle d’intelligence artificielle, avant que la décision automatisée ne soit exécutée. L’objectif : permettre aux industriels et aux opérateurs de systèmes autonomes de sécuriser l’usage de l’IA dans des environnements critiques.
Aujourd’hui, les entreprises qui déploient de l’intelligence artificielle disposent principalement d’outils de monitoring permettant d’analyser la performance globale des modèles après leur exécution. Ces approches permettent de détecter une dégradation progressive d’un modèle, mais elles ne répondent pas au besoin primordial dans les environnements industriels de déterminer la fiabilité d’une prédiction en temps réel.
Dans les chaînes de production automatisées, la robotique ou les systèmes autonomes, cette incertitude peut entraîner des erreurs de décision coûteuses : rejet de pièces conformes, arrêt de robots, fausses alertes de sécurité ou décisions erronées dans les systèmes de perception.
TrustalAI développe « the reliability layer for AI », une couche logicielle plug-and-play qui se connecte aux modèles d’intelligence artificielle existants sans modifier leur architecture. La technologie permet de mesurer, en temps réel (<100 ms), la fiabilité des prédictions produites par un modèle d’IA avant que la décision automatisée ne soit exécutée, en générant des indicateurs de confiance associés à chaque prédiction.
La solution permet notamment de quantifier l’incertitude d’une prédiction individuelle, détecter les situations hors du domaine d’entraînement, identifier les dérives de modèles de manière précoce et fournir des indicateurs explicables pour chaque décision automatisée. Elle ne modifie pas la prédiction du modèle original. TrustalAI associe à chaque prédiction un niveau de fiabilité qui permet ensuite aux systèmes d’adapter leurs prédictions.
« L’IA n’est plus limitée par ce qu’elle peut faire, mais par son incapacité à prouver qu’on peut lui faire confiance. Notre solution TrustalAI-Vision apporte cette couche de fiabilité manquante. », explique Julien Roy, cofondateur et CEO de TrustalAI.
La solution repose sur plus de deux années de Recherche et Développement consacrées à la modélisation de l’incertitude et à l’évaluation de la fiabilité des modèles d’intelligence artificielle.
Ces travaux ont été validés dans le cadre d’un proof-of-concept conduit avec l’Institut VEDECOM sur des systèmes de perception coopérative pour véhicules autonomes. Les résultats ont fait l’objet d’une publication récompensée du Best Paper Award lors de la conférence internationale ICNSC 2025 (hal-04910986) : une réduction de 83 % des faux positifs et de 70 % des erreurs de perception, obtenus sans modification du modèle IA d’origine, benchmarkés avec sept méthodes de fusion concurrentes.
« Notre approche consiste à mesurer l’incertitude d’un modèle pour chaque prédiction, en temps réel. Cela permet d’identifier immédiatement les situations où une décision automatisée doit être vérifiée ou supervisée », précise Maryem Fadili, cofondatrice et CTO de TrustalAI.
L’essor de l’intelligence artificielle dans les systèmes industriels et autonomes s’accompagne d’un durcissement du cadre réglementaire. L’EU AI Act, dont une première étape entrera en application en août 2026, imposera aux entreprises de démontrer la fiabilité et la supervision de leurs systèmes d’IA, notamment dans les environnements industriels à haut risque. Parallèlement, le Règlement Machines (2023/1230) renforce la responsabilité des intégrateurs de systèmes robotisés, qui devront garantir la conformité et la sécurité des cellules intégrant des modèles d’IA, souvent perçus comme des « boîtes noires ».
Dans ce contexte, la capacité à mesurer et documenter la fiabilité des décisions automatisées devient un enjeu industriel majeur. TrustalAI entend se positionner sur ce nouveau segment en ciblant en priorité les marchés du smart manufacturing, des systèmes autonomes et des smart cities, avec un modèle de déploiement à la fois B2B et B2B2B auprès d’industriels et de fabricants d’équipements (robots, caméras industrielles, capteurs).