STAGE 2026 - Assistant IA Hors-Ligne - F/H - BERGER LEVRAULT
CDI
???? Sujet : Générateur Intelligent de Packs d'Assistance pour la Maintenance Industrielle Hors-Ligne ???? Contexte : Les techniciens de maintenance interviennent régulièrement dans des environnements totalement déconnectés : tunnels, sous-sols industriels, zones isolées ou sites sécurisés. Dans ces situations, notre assistant IA en ligne (basé sur un LLM déployé sur nos serveurs) devient inutilisable. Pour dépasser cette limite, CARL développe un assistant IA hors-ligne reposant sur des tiny LLM embarqués (Phi, Gemma Nano, TinyLlama…). Ces modèles ne peuvent être réellement efficaces que s’ils disposent d’un pack d’assistance : un ensemble optimisé de documents, extraits pertinents, historiques, procédures et métadonnées de recherche adaptés à leur capacité de contexte réduite. Ce pack doit être généré en amont, en combinant : les données issues de la GMAO CARL Source, la documentation technique et les historiques d’intervention, et les capacités de notre assistant IA en ligne (via API interne) pour identifier les sections réellement utiles. Le format de pack, le modèle d’embedding et le moteur hors-ligne existant seront fournis : le stage se concentre sur la génération et l’optimisation des contenus ???? Objectif : Concevoir et prototyper un système capable de créer automatiquement un pack d’assistance compact, pertinent et exploitable par un tiny LLM hors-ligne, à partir : de l’analyse d’un ordre de travail, de la sélection intelligente des contenus pertinents, de la génération des embeddings, index et métadonnées nécessaires au moteur offline. ????️ Missions : 1. Sélection de contenu Analyser l’OT (Ordre de travail) pour identifier les besoins documentaires. Extraire les sections pertinentes (PDF, images, historiques). Utiliser l’assistant IA en ligne pour obtenir résumés et extraits ciblés. Fusionner et filtrer ces contenus pour ne conserver que l’essentiel. 2. Construction du pack hors-ligne Générer embeddings et index locaux (modèles fournis). Structurer le pack dans le format standard du moteur offline. Préparer le chunking adapté aux tiny LLMs. 3. Optimisation Compresser et réduire la taille. Dédupliquer et prioriser les contenus. Mettre en place des indicateurs simples de qualité. 4. Tests Tester le pack dans l’assistant hors-ligne existant. Vérifier pertinence, cohérence et temps de réponse. Valider le comportement sur mobile. Extensions possibles Packs multi-interventions. Mises à jour incrémentales. Scoring qualité avancé. Livrables Prototype fonctionnel du générateur de packs Pipeline d’extraction et de sélection de contenu Spécification du pack (structure, index, métadonnées) Rapport d’optimisation Jeux de tests et résultats de compatibilité Documentation d’intégration Les plus de ce stage : Travail direct sur embeddings, index vectoriels, chunking et pipelines documentaires Possibilité d’accès à une thèse CIFRE / doctorat sur les tiny LLM et l’Edge AI