index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Long Short-Term Memory Confiance explicabilité Distributed learning Sûreté de fonctionnement Contextual Evaluation Conformal Prediction Automated vehicle Computer Vision Deployment Decision tree ODD Critical systems Neural Architecture Search Conformal prediction Distribution based method Bayesian inference Machine Learning Machine learning Intelligence Articifielle Deep Ensembles Artificial Intelligence Explicabilité ED-324/ARP6983 Computer vision Anomaly detection AI-Based Critical Systems Bayesian optimization Anomaly Detection Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Edge computing Adversarial Training Adversarial Attacks Deep learning Calibration Adversarial attacks AI engineering Cycle-accurate simulator Distributed Machine Learning Autonomous system Data trustworthiness Neural network Bias Detection Deep Reinforcement Learning Case-based Realization theory Data Stream Processing Complexity Adversarial physical attack Arcadia Method Neural ODEs Robustness Branch-and-Bound algorithm Data Analysis Deep neural network classifiers AI systems Trustworthiness Attributes Mixed Integer Programming Custom search space Dempster Shafer theory Data-driven reachability Aide à la décision AI AI System Characterization AI-Based Systems XAI Adversarial attack AI-Systems Engineering Counterfactuals Neural Network Semantic segmentation Bayesian Optimization Concepts Anomaly Generative Models Data Stream Artificial intelligence Multi-fidelity BO AI component evaluation methodology Confiance Trustworthiness Assessment Explainable AI Reliability Attack transferability Explainability Monitoring Recurrent Neural Networks Data Quality Collaboration Human-IA Sûreté AI-based systems Adversarial examples Certification Assurance Cases Computer Vision and Pattern Recognition Christoffel functions Data Visualization Cryptography and Security System Identification Robustesse Assurance case