Vous rejoindrez notre groupe LSL/AISER, spécialisé en explicabilité, résilience et sureté des systèmes d’intelligence artificielle.
Le domaine général est de s’assurer du bon fonctionnement des systèmes d’intelligence artificielle pour obtenir un niveau de confiance suffisant à leur utilisation. Pour cela l’équipe développe une plateforme articulée autour de
· la vérification de la sureté des réseaux de neurones grâce à l’interprétation abstraite,
· des tests métamorphiques de systèmes IA,
· des solveurs de contraintes pour l’analyse symbolique et
· des analyses d’explicabilité.
Les travaux attendus sont :
· participer au développement et à l’amélioration de cette plateforme pour la confiance des IA
· concevoir, implanter et évaluer de nouvelles méthodes dans la plateforme et en évaluer la pertinence sur des cas représentatifs,
· valoriser les travaux de l’équipe.
Vous contribuerez à des projets avec des partenaires académiques et industriels du LSL, ainsi que des projets de recherche collaboratifs français et européens, notamment dans les domaines de la sûreté ou de la sécurité des systèmes d’IA.
Le candidat retenu doit être titulaire d'un doctorat (ou être sur le point de terminer) en Intelligence Artificielle, Méthodes Formelles ou Logique.
La connaissance de la programmation fonctionnelle est un plus (idéalement, langage OCaml).
Sens du travail en équipe, capacité à la prise d’initiative et de responsabilité (encadrement et gestion de projet)