index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI Example-based Neural ODEs Explicability Critical systems AI-Based Systems Monitoring Engineering Processes Data-driven reachability Neural network AI System Characterization Intelligence Articifielle Adversarial physical attack Evaluation Branch-and-Bound algorithm Adversarial attack Distribution based method Explanations Trustworthiness Attributes Automated vehicle Data Stream Processing Adversarial attacks Calibration Distributed Machine Learning Dempster Shafer theory AI engineering AI-Based Critical Systems Cryptography and Security Deployment Data Quality Data Stream Machine learning XAI Sûreté de fonctionnement Assurance case ED-324/ARP6983 Cycle-accurate simulator Distributed learning Bias Detection Recurrent Neural Networks Deep learning Anomaly Detection Case-based Sûreté Conformal prediction Mixed Integer Programming Anomaly detection Data Visualization Artificial intelligence Bayesian optimization Reliability AI-Systems Engineering Custom search space Embarqué Data trustworthiness Machine Learning Robustness AI component evaluation methodology Trustworthiness Assessment Explainability Deep neural network classifiers Adversarial Attacks Confiance Artificial Intelligence Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Complexity Computer Vision Computer vision Confiance explicabilité ODD Christoffel functions Semantic segmentation Data Analysis AI-based systems Deep Reinforcement Learning Long Short-Term Memory Generative Models Embedded AI Contextual Evaluation Explicabilité Realization theory Attack transferability Neural Network Adversarial examples Enalty Bayesian Neural Networks Conformal Prediction Computer Vision and Pattern Recognition Bayesian Optimization Certification Decision tree Counterfactuals Edge computing Arcadia Method Explainable AI System Identification Bayesian inference Robustesse Adversarial Training Anomaly Concepts