Présence sur site 3j/semaine
Mission
Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake.
Responsabilités
Développer des pipelines ETL/ELT
Intégrer et transformer les données
Modéliser les données (data warehouse)
Optimiser les performances et les coûts
Assurer la qualité des données (tests, monitoring)
Orchestrer les workflows (Airflow ou équivalent)
Collaborer avec les équipes data et métier
Stack technique
AWS (S3, Glue, Lambda, Redshift)
Snowflake
SQL
Python
Airflow / dbt / Git
Profil
Expérience en data engineering
Bonne maîtrise SQL et modélisation
Expérience cloud (AWS)
Autonomie, rigueur
Bonus
Docker
CI/CD
Expérience data lake / lakehouse
Pure player de la transformation digitale, nous accompagnons les entreprises dans leurs enjeux IT, data & IA et cybersécurité. Forts d’une expertise transverse et de compétences pointues, nous intervenons sur l’ensemble de la chaîne de valeur, du conseil à la mise en œuvre opérationnelle. Présents sur plusieurs marchés, nous collaborons avec des clients grands comptes issus de tous secteurs d’activité. Notre objectif : les aider à atteindre leurs ambitions en accélérant leur transformation, en optimisant leurs performances et en sécurisant leurs systèmes d’information.