2 L’intelligence artificielle responsable
Le programme IA Responsable porte l’excellence scientifique sur deux enjeux clés de notre stratégie : la confiance et la frugalité. Il s’ancre dans une recherche intense sur les fondements de l’IA.La question de la confiance numérique en IA, thème de recherche majeur au List, trouve ses racines dans l’engagement du CEA pour la sûreté et la sécurité logicielle. Abordée dans sa globalité par nos équipes, elle est ici mise en avant sur deux axes : la sûreté de fonctionnement et la capacité à vérifier les systèmes critiques à base d’IA ; le couplage de l’IA aux modèles de simulation demandant la maîtrise des imprécisions véhiculées dans les modèles, en particulier pour le traitement du signal.
L’enjeu de la frugalité s’appuie sur l’expertise des équipes autour des domaines d’applications. Parmi ceux-ci, deux exemples importants sont le traitement naturel des langues et la vision par ordinateur. Les équipes visent l’élaboration de méthodes de conception (des données aux algorithmes) capables d’assurer performance et frugalité, y compris pour les approches actuelles à base d’IA générative. L’option est de contourner les solutions brutes généralistes afin de favoriser la spécialisation et la performance sur des contextes opérationnels précis.

Ces enjeux sont abordés autour de cinq résultats clés de l’année :
- 1ère place au challenge EvalLLM pour l’extraction d’information à partir de textes
- Savoir quantifier les incertitudes dans la simulation guidée par intelligence artificielle
- Succès de PyRAT dans une compétition de vérification formelle
- DIOD (Self-Distillation Meets Object Discovery) booste la performance de la découverte d’objets non supervisée dans les vidéos
- Démonstration d’IA générative appliquée à la saisie robotique
