index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Christoffel functions Trustworthy Artificial Intelligence Automated vehicle Machine learning Adversarial physical attack Body-of-Knowledge Contextual Evaluation AI-Based Critical Systems Realization theory Explainability Assessment Adversarial attack Machine Learning AI-based systems Uncertainty Intelligence artificielle Knowledge graph Apprentissage automatique Conformal prediction Anomaly AI Robustness Recurrent Neural Networks Mixed Integer Programming Trustworthiness Assessment Explainable AI Autonomous system Assurance case Neural network AI System Characterization Engineering processes Vision par ordinateur Distributed learning Conformal Prediction Trustworthiness Attributes Neural Network AI-Systems Engineering Body of knowledge Cryptography and Security ODD AI component evaluation methodology Boosted Decision Trees BDT Tools ML Engineering Neural ODEs Concepts AI systems Aide à la décision AI Safety AI Governance Semantic segmentation Counterfactuals Neural Architecture Search Generative Models Sûreté Computer Vision Monitoring Explicabilité Branch-and-Bound algorithm Intelligence Articifielle Bayesian optimization XAI Case-based Arcadia Method Robustesse Anomaly detection System Identification AI-Based Systems Robustness Knowledge fusion Bayesian Optimization Artificial intelligence Multi-fidelity BO Confiance explicabilité Sûreté de fonctionnement Critical systems Complexity Attack transferability Adversarial attacks Computer vision Calibration Confiance Knowledge extraction AI explainability Anomaly Detection Computer Vision and Pattern Recognition Collaboration Human-IA Bias Detection Adversarial Attacks Reliability Bayesian inference Adversarial Training Long Short-Term Memory Al monitoring AI AI engineering Adversarial examples Certification Trustworthiness Assurance Cases