index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Neural Architecture Search Explainable AI Autonomous system Counterfactuals Realization theory AI engineering AI-Based Critical Systems Computer Vision and Pattern Recognition AI Safety Assessment Monitoring Semantic segmentation AI Robustness XAI Artificial Intelligence Contextual Evaluation Long Short-Term Memory Christoffel functions Anomaly Detection Concepts Trustworthiness Assessment Knowledge graph Knowledge extraction AI Governance Complexity Body-of-Knowledge Assurance case Explainability AI System Characterization Assurance Cases AI-based systems Confiance Apprentissage automatique Certification Intelligence artificielle Sûreté Calibration Bias Detection Robustness Computer Vision Attack transferability Tools Trustworthiness Attributes Al monitoring Neural network Artificial intelligence Sûreté de fonctionnement Robustesse Generative Models Computer vision Adversarial attack Confiance explicabilité Distributed learning Adversarial examples Automated vehicle Recurrent Neural Networks Intelligence Articifielle Reliability AI-Systems Engineering AI-Based Systems Arcadia Method Conformal Prediction AI systems Bayesian inference Knowledge fusion Bayesian Optimization Trustworthy Engineering processes AI explainability Boosted Decision Trees BDT Adversarial Attacks Mixed Integer Programming Anomaly detection AI component evaluation methodology Explicabilité Bayesian optimization Vision par ordinateur Critical systems Machine learning ML Engineering Case-based Cryptography and Security Adversarial physical attack Adversarial attacks Adversarial Training Neural ODEs Neural Network AI Conformal prediction Branch-and-Bound algorithm Multi-fidelity BO ODD System Identification Aide à la décision Uncertainty Trustworthiness Machine Learning Anomaly Body of knowledge Collaboration Human-IA