Thèse (PhD) : Vulnérabilités des modèles d'IA génératives multimodaux H/F - CEA
CDD
Bien que l'intelligence artificielle générative excelle dans la création de contenus originaux (comme du texte, image ou code), elle fait face à plusieurs limitations. Les données utilisées pour entrainer les modèles de fondation sur lesquelles s'appuie l'IA générative peuvent être périmées depuis des semaines, des mois, voire des années. De plus, dans un chatbot d'entreprise, elles peuvent ne pas prendre en compte des informations spécifiques aux produits ou services de l'entreprise. Cela peut conduire à des réponses incorrectes qui érodent la confiance en la technologie de certains clients et collaborateurs. Afin d'atténuer ces limitations, les modèles de fondations doivent être régulièrement mis à jour et personnalisés. Une des techniques état-de-l'art utilisée pour optimiser la réponse de l'IA générative mais sans modifier le modèle sous-jacent est la Génération Augmentée de Récupération (RAG). Le RAG permet ainsi aux modèles d'IA générative de se référer à une base de connaissances externe afin de générer un contenu mis à jour et spécialisé. Bien que l'utilisation du RAG est en train de se démocratiser dans le monde industriel, il y a encore beaucoup d'incertitudes concernant les risques autour de cette technique de personnalisation. Le sujet de thèse proposé consiste à étudier les menaces liées à l'intégrité et à la confidentialité des données lors de l'utilisation d'un RAG pour adapter les nouveaux modèles d'IA générative multimodaux. #CEA-List ; #PhD ; #Thèse ; #IA