Administrateur Systèmes Linux & DevOps IA H/F - DEFENSE CONSEIL INTERNATIONAL
Fonction : Non définie
Lieu : Paris
Date de début : Wed, 01 Apr 2026 22:11:30 Z
Date de fin : 01-05-2026
Rémunération comprise entre € et € par
Description de l'offre

Au sein de la Direction des Systèmes d’Information et rattaché au Responsable Infrastructure, vous assurez l'administration, le maintien en condition opérationnelle et l'évolution des infrastructures Linux de DCI, couvrant : Les plateformes e-learning et de gestion de contenus pédagogiques déployées pour les clients institutionnels. Les plateformes e-learning et de gestion de contenus pédagogiques opérées à destination de notre production interne. L'infrastructure d'intelligence artificielle interne. Vos missions sont les suivantes : Administration des plateformes e-learning clients : Administrer et maintenir les serveurs Linux (Debian, Ubuntu, Rocky Linux) hébergeant les plateformes ILIAS, Moodle et SCENARI ; Assurer le déploiement, la configuration et le maintien en condition opérationnelle des environnements de formation ; Intervenir sur les sites clients en France et à l'international ; Participer aux phases de recette et de mise en production des nouveaux projets ; Rédiger et maintenir la documentation technique des systèmes ; Assurer les mises à jour de sécurité, les montées de version et la veille technologique ; Répondre aux exigences de sécurité du client (audits, CVE, conformité) ; Assurer le support technique N2/N3 et la coordination avec les prestataires spécialisés.                                                                 Automatisation et DevOps : Développer et maintenir des playbooks Ansible pour l'automatisation des déploiements ; Concevoir et gérer les environnements conteneurisés (Docker, Docker Compose) ; Mettre en place et administrer les pipelines CI/CD (GitLab CI) ; Contribuer à l'infrastructure as code et à la gestion de configuration.  Infrastructure IA et services innovants : Déployer et administrer l'infrastructure d'intelligence artificielle (serveurs GPU, Ollama, modèles LLM type Mistral) ; Mettre en place les API et services de traduction automatique pour les projets métiers ; Assurer la veille technologique sur les solutions IA déployables on-premise ; Participer aux projets de souveraineté numérique.

Profil du candidat

Actuellement , 11 offres sont accessibles.
Type de contrat
Indiquez une région