Trouvez votre prochaine opportunité
Emplois, formations et entreprises partout en France
Description de l'offre
???? Sujet : Générateur Intelligent de Packs d'Assistance pour la Maintenance Industrielle Hors-Ligne
???? Contexte :
Les techniciens de maintenance interviennent régulièrement dans des environnements totalement déconnectés : tunnels, sous-sols industriels, zones isolées ou sites sécurisés. Dans ces situations, notre assistant IA en ligne (basé sur un LLM déployé sur nos serveurs) devient inutilisable.
Pour dépasser cette limite, CARL développe un assistant IA hors-ligne reposant sur des tiny LLM embarqués (Phi, Gemma Nano, TinyLlama…). Ces modèles ne peuvent être réellement efficaces que s’ils disposent d’un pack d’assistance : un ensemble optimisé de documents, extraits pertinents, historiques, procédures et métadonnées de recherche adaptés à leur capacité de contexte réduite.
Ce pack doit être généré en amont, en combinant :
les données issues de la GMAO CARL Source,
la documentation technique et les historiques d’intervention,
et les capacités de notre assistant IA en ligne (via API interne) pour identifier les sections réellement utiles.
Le format de pack, le modèle d’embedding et le moteur hors-ligne existant seront fournis : le stage se concentre sur la génération et l’optimisation des contenus
???? Objectif :
Concevoir et prototyper un système capable de créer automatiquement un pack d’assistance compact, pertinent et exploitable par un tiny LLM hors-ligne, à partir :
de l’analyse d’un ordre de travail,
de la sélection intelligente des contenus pertinents,
de la génération des embeddings, index et métadonnées nécessaires au moteur offline.
????️ Missions :
1. Sélection de contenu
Analyser l’OT (Ordre de travail) pour identifier les besoins documentaires.
Extraire les sections pertinentes (PDF, images, historiques).
Utiliser l’assistant IA en ligne pour obtenir résumés et extraits ciblés.
Fusionner et filtrer ces contenus pour ne conserver que l’essentiel.
2. Construction du pack hors-ligne
Générer embeddings et index locaux (modèles fournis).
Structurer le pack dans le format standard du moteur offline.
Préparer le chunking adapté aux tiny LLMs.
3. Optimisation
Compresser et réduire la taille.
Dédupliquer et prioriser les contenus.
Mettre en place des indicateurs simples de qualité.
4. Tests
Tester le pack dans l’assistant hors-ligne existant.
Vérifier pertinence, cohérence et temps de réponse.
Valider le comportement sur mobile.
Extensions possibles
Packs multi-interventions.
Mises à jour incrémentales.
Scoring qualité avancé.
Livrables
Prototype fonctionnel du générateur de packs
Pipeline d’extraction et de sélection de contenu
Spécification du pack (structure, index, métadonnées)
Rapport d’optimisation
Jeux de tests et résultats de compatibilité
Documentation d’intégration
Les plus de ce stage :
Travail direct sur embeddings, index vectoriels, chunking et pipelines documentaires
Possibilité d’accès à une thèse CIFRE / doctorat sur les tiny LLM et l’Edge AI
???? Sujet : Générateur Intelligent de Packs d'Assistance pour la Maintenance Industrielle Hors-Ligne
???? Contexte :
Les techniciens de maintenance interviennent régulièrement dans des environnements totalement déconnectés : tunnels, sous-sols industriels, zones isolées ou sites sécurisés. Dans ces situations, notre assistant IA en ligne (basé sur un LLM déployé sur nos serveurs) devient inutilisable.
Pour dépasser cette limite, CARL développe un assistant IA hors-ligne reposant sur des tiny LLM embarqués (Phi, Gemma Nano, TinyLlama…). Ces modèles ne peuvent être réellement efficaces que s’ils disposent d’un pack d’assistance : un ensemble optimisé de documents, extraits pertinents, historiques, procédures et métadonnées de recherche adaptés à leur capacité de contexte réduite.
Ce pack doit être généré en amont, en combinant :
les données issues de la GMAO CARL Source,
la documentation technique et les historiques d’intervention,
et les capacités de notre assistant IA en ligne (via API interne) pour identifier les sections réellement utiles.
Le format de pack, le modèle d’embedding et le moteur hors-ligne existant seront fournis : le stage se concentre sur la génération et l’optimisation des contenus
???? Objectif :
Concevoir et prototyper un système capable de créer automatiquement un pack d’assistance compact, pertinent et exploitable par un tiny LLM hors-ligne, à partir :
de l’analyse d’un ordre de travail,
de la sélection intelligente des contenus pertinents,
de la génération des embeddings, index et métadonnées nécessaires au moteur offline.
????️ Missions :
1. Sélection de contenu
Analyser l’OT (Ordre de travail) pour identifier les besoins documentaires.
Extraire les sections pertinentes (PDF, images, historiques).
Utiliser l’assistant IA en ligne pour obtenir résumés et extraits ciblés.
Fusionner et filtrer ces contenus pour ne conserver que l’essentiel.
2. Construction du pack hors-ligne
Générer embeddings et index locaux (modèles fournis).
Structurer le pack dans le format standard du moteur offline.
Préparer le chunking adapté aux tiny LLMs.
3. Optimisation
Compresser et réduire la taille.
Dédupliquer et prioriser les contenus.
Mettre en place des indicateurs simples de qualité.
4. Tests
Tester le pack dans l’assistant hors-ligne existant.
Vérifier pertinence, cohérence et temps de réponse.
Valider le comportement sur mobile.
Extensions possibles
Packs multi-interventions.
Mises à jour incrémentales.
Scoring qualité avancé.
Livrables
Prototype fonctionnel du générateur de packs
Pipeline d’extraction et de sélection de contenu
Spécification du pack (structure, index, métadonnées)
Rapport d’optimisation
Jeux de tests et résultats de compatibilité
Documentation d’intégration
Les plus de ce stage :
Travail direct sur embeddings, index vectoriels, chunking et pipelines documentaires
Possibilité d’accès à une thèse CIFRE / doctorat sur les tiny LLM et l’Edge AI