En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d'intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Actualité des entreprises

IA industrielle : la deeptech TrustalAI veut ajouter la « couche de fiabilité » pour sécuriser les prédictions de l’intelligence artificielle

Publication: 25 mars

Partagez sur
 
TrustalAI présentera sa solution lors du salon Global Industrie, du 30 mars au 02 avril 2026, au stand 5G131...
 

Issue de deux ans de R&D, sa solution TrustalAI-Vision analyse en temps réel la fiabilité des prédictions produites par les modèles d’intelligence artificielle.

Robotique industrielle, vision automatisée, drones et véhicules autonomes : l’intelligence artificielle s’impose progressivement dans des systèmes où chaque décision peut avoir un impact opérationnel immédiat. Mais une limite demeure largement reconnue par les industriels : la difficulté à mesurer la fiabilité d’une prédicition générée par un modèle IA. À mesure que l’IA devient une infrastructure industrielle critique, la question n’est plus seulement technologique : elle devient économique et juridique.

C’est à cette problématique que répond la start-up deeptech française TrustalAI qui annonce le lancement de TrustalAI-Vision, une solution logicielle capable d’évaluer en temps réel la fiabilité de chaque prédiction d’un modèle d’intelligence artificielle, avant que la décision automatisée ne soit exécutée. L’objectif : permettre aux industriels et aux opérateurs de systèmes autonomes de sécuriser l’usage de l’IA dans des environnements critiques.

Une limite structurelle de l’IA dans les systèmes industriels

Aujourd’hui, les entreprises qui déploient de l’intelligence artificielle disposent principalement d’outils de monitoring permettant d’analyser la performance globale des modèles après leur exécution. Ces approches permettent de détecter une dégradation progressive d’un modèle, mais elles ne répondent pas au besoin primordial dans les environnements industriels de déterminer la fiabilité d’une prédiction en temps réel.

Dans les chaînes de production automatisées, la robotique ou les systèmes autonomes, cette incertitude peut entraîner des erreurs de décision coûteuses : rejet de pièces conformes, arrêt de robots, fausses alertes de sécurité ou décisions erronées dans les systèmes de perception.

Une couche de fiabilité en temps réel

TrustalAI développe « the reliability layer for AI », une couche logicielle plug-and-play qui se connecte aux modèles d’intelligence artificielle existants sans modifier leur architecture. La technologie permet de mesurer, en temps réel (<100 ms), la fiabilité des prédictions produites par un modèle d’IA avant que la décision automatisée ne soit exécutée, en générant des indicateurs de confiance associés à chaque prédiction.

La solution permet notamment de quantifier l’incertitude d’une prédiction individuelle, détecter les situations hors du domaine d’entraînement, identifier les dérives de modèles de manière précoce et fournir des indicateurs explicables pour chaque décision automatisée. Elle ne modifie pas la prédiction du modèle original. TrustalAI associe à chaque prédiction un niveau de fiabilité qui permet ensuite aux systèmes d’adapter leurs prédictions.

« L’IA n’est plus limitée par ce qu’elle peut faire, mais par son incapacité à prouver qu’on peut lui faire confiance. Notre solution TrustalAI-Vision apporte cette couche de fiabilité manquante. », explique Julien Roy, cofondateur et CEO de TrustalAI.

Une technologie issue de deux années de Recherche & Développement

La solution repose sur plus de deux années de Recherche et Développement consacrées à la modélisation de l’incertitude et à l’évaluation de la fiabilité des modèles d’intelligence artificielle.

Ces travaux ont été validés dans le cadre d’un proof-of-concept conduit avec l’Institut VEDECOM sur des systèmes de perception coopérative pour véhicules autonomes. Les résultats ont fait l’objet d’une publication récompensée du Best Paper Award lors de la conférence internationale ICNSC 2025 (hal-04910986) : une réduction de 83 % des faux positifs et de 70 % des erreurs de perception, obtenus sans modification du modèle IA d’origine, benchmarkés avec sept méthodes de fusion concurrentes.

« Notre approche consiste à mesurer l’incertitude d’un modèle pour chaque prédiction, en temps réel. Cela permet d’identifier immédiatement les situations où une décision automatisée doit être vérifiée ou supervisée », précise Maryem Fadili, cofondatrice et CTO de TrustalAI.

Réglementation et industrialisation de l’IA : un marché en pleine accélération

L’essor de l’intelligence artificielle dans les systèmes industriels et autonomes s’accompagne d’un durcissement du cadre réglementaire. L’EU AI Act, dont une première étape entrera en application en août 2026, imposera aux entreprises de démontrer la fiabilité et la supervision de leurs systèmes d’IA, notamment dans les environnements industriels à haut risque. Parallèlement, le Règlement Machines (2023/1230) renforce la responsabilité des intégrateurs de systèmes robotisés, qui devront garantir la conformité et la sécurité des cellules intégrant des modèles d’IA, souvent perçus comme des « boîtes noires ».

Dans ce contexte, la capacité à mesurer et documenter la fiabilité des décisions automatisées devient un enjeu industriel majeur. TrustalAI entend se positionner sur ce nouveau segment en ciblant en priorité les marchés du smart manufacturing, des systèmes autonomes et des smart cities, avec un modèle de déploiement à la fois B2B et B2B2B auprès d’industriels et de fabricants d’équipements (robots, caméras industrielles, capteurs).

https://www.trustalai.com

Suivez Industrie Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'Industrie Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: