Contexte & Objectif de la mission
Au sein de la division, l’équipe Data Platforms conçoit, développe et maintient les infrastructures data stratégiques du Groupe.
Elle soutient les initiatives d’IA, de machine learning, d’automatisation et de conformité réglementaire, en mettant à disposition des plateformes robustes, scalables et sécurisées.
L’une des pierres angulaires de cet écosystème est le Data Hub, qui permet la centralisation, la gouvernance et la distribution des données de manière transverse, à l’échelle du groupe. Ce hub joue un rôle central dans l’industrialisation des usages data internes.
Dans ce contexte, nous renforçons notre capacité de support avec la mise en place d’un dispositif d’exploitation et de support N2 sur les composants cœur du Data Hub.
🔧 Description de la prestationVous contribuerez aux activités d’exploitation, de support et d’amélioration continue des plateformes suivantes, déployées sur Kubernetes (IBM IKS aujourd’hui, OpenShift demain) :
● Apache Spark
● Apache Airflow / Astronomer
● Starburst (Trino)
● Assurer le support N2 en production (analyse, résolution d'incidents, root cause analysis).
● Participer au tuning et à l’optimisation des traitements Spark, à l’amélioration des DAG Airflow, et à la gestion fine des catalogues Trino.
● Accompagner les équipes Data Science et Métiers dans une utilisation performante et sécurisée des plateformes.
● Contribuer à l’automatisation, la documentation et l’amélioration continue des environnements.
● Participer aux revues de logs, métriques et traces pour garantir l’observabilité et la résilience des composants.
● Expérience confirmée en environnement Data en production (support N2, run).
● Maîtrise de Kubernetes, et au moins deux de ces trois briques :
○ Apache Spark (profiling, tuning, configuration, gestion des ressources),
○ Apache Airflow / Astronomer (optimisation, supervision),
○ Starburst / Trino (catalogues, optimisation de requêtes SQL).
● Bonne connaissance de l’écosystème d’observabilité : Grafana, Kibana, Dynatrace ou équivalents.
● Compétences en scripting (Python, Bash, Ansible…).
● Connaissance des chaînes CI/CD (GitLab CI, Jenkins).
● Maîtrise de Helm, YAML, déploiement sur clusters Kubernetes.
● Notions de sécurité appréciées : HashiCorp Vault, PKI, RBAC.
● Capacité à interagir avec des équipes variées (infra, data science, data engineering).
● Esprit d’analyse et rigueur dans la gestion d’incidents.
● Autonomie, esprit d’équipe, proactivité.
● Français courant
● Anglais professionnel (échanges avec certaines équipes techniques à l’international)
👤 Profil recherché● Ingénieur confirmé avec une forte appétence DevOps orienté data, ou DataOps.
● Expérience dans des contextes similaires (infrastructure data en production dans de grandes DSI ou environnements régulés).
● Forte sensibilité à la qualité, la sécurité et la documentation des environnements techniques.
LeHibou, c’est la première plateforme de consultants freelances spécialisés en Tech & Innovation en Europe, qui met en relation les meilleurs experts avec des Grands Comptes et ETI. Chiffres clés & croissance : ✅ +120 000 consultants Tech inscrits ✅ 112M€ de CA en 2024 ✅ Lauréat de la FrenchTech Next40 ✅ Champion de la Croissance (Les Echos 2024 / Sifted 50 2024 / FT 2024 / Tech500) Notre différence ? Une alternative innovante aux ESN traditionnelles, grâce à une plateforme innovante utilisant l’IA et à un accompagnement humain pour tous nos clients et freelances. Nos offres : - LeHibou Experts, la 1ère plateforme des Freelances Tech en Europe - LeHibou Cybersecurity, l’accompagnement en Cybersécurité - LeHibou Executive, les Managers de votre transition 📍 Bureaux à Paris, Bordeaux, Toulouse, Lyon, Nantes, Marseille, Grand Baie & Bruxelles