Votre rôle est d’effectuer une thèse de doctorat sur l’explication d’algorithmes d’IA “boîtes noires” par ses exemples d’apprentissage.
Contexte global et problématique du sujet
Les progrès récents des méthodes d’apprentissage ont amené de nouvelles applications en IA porteuses de promesses d’automatisation pour gagner en efficacité opérationnelle ou soulager les métiers de tâches peu intéressantes. Ces IA reposent la plupart du temps sur des modèles surparamétrés, dont les paramètres sont appris sur d’immenses jeux d’apprentissage. De ce fait, elles sont qualifiées d’”opaques”: il est impossible de comprendre précisément le processus qui amène à des décisions une fois le système mis en production. Parallèlement, le régulateur (IA Act), les utilisateurs métiers, les utilisateurs finaux demandent plus de transparence, ont un besoin d’explicabilité de ces algorithmes.
Ces dernières années ont vu l’émergence de méthodes d’explicabilité, chacune avec les avantages et inconvénients. Les méthodes d’explicabilité identifient les exemples d’apprentissage qui portent des décisions d’une IA [1], explication parlante pour les non-experts, proche de la manière dont les personnes raisonnent. Ces méthodes ont par exemple été récemment appliquées des modèles de langage à l’état de l’art [2].
Objectif scientifique
La thèse consistera en un état de l’art des avancées théoriques, algorithmiques et pratiques de ces méthodes afin d’en tirer de nouvelles pistes de recherche, de proposer de nouvelles méthodes en partenariat avec les encadrants. Nous avons pré-identifié les verrous à lever:
le passage à l’échelle des méthodes demandant des ressources, en se basant sur des algorithmes approchés récents[3]
la formalisation de la bonne manière d’attribuer son importance à chaque exemple d’entraînement, lorsque la prédiction effectuée par modèle repose sur plusieurs d’entre-eux[4]
l’identification de groupes d’exemples qui amènent à des comportements non-désirés, tels que des prédictions inéquitables envers certains groupes d’instances, des exemples mal-étiquetés ou des anomalies.[5]
la problématique de l’ergonomie par la mise à disposition de ces explications à des utilisateurs réels, non experts data scientists, ou des ergonomes d’Innovation experts sur la réception d’objets techniques en condition de travail. [6]
Au cours de la thèse, vous serez amené à publier des nouvelles productions scientifiques, faire des conférences, en interne, et au laboratoire d’accueil.
Il n'y a pas d'offres.
All rights reserved © FreelanceDay 2025
FeelanceDay, date création entreprise 12-05-2017 - Il y a 8 ans, forme juridique : SARL unipersonnelle, noms commerciaux REESK DIGITAL SOLUTION, adresse postale 28 RUE DE LONDRES 75009 PARIS, numéro SIREN : 829739622, numéro SIRET (siège) : 2973962200019, numéro TVA Intracommunautaire : FR28829739622, numéro RCS Paris B 829 739 622, activité (Code NAF ou APE), edition de logiciels applicatifs (5829C)