Mission
Venez développer et mettre en place des traitements de collecte, d'organisation et de mise à disposition des données (internes et externes).Votre objectif : faciliter le travail des équipes d'analystes et de valorisation des données.
Et si être « Data Engineer » chez APRIL vous permettait …
- de choisir un métier dont vous pourrez être fier : «accompagner et protéger à chaque moment qui compte, simplement» telle est la mission et la raison d’être partagée par l’ensemble de nos collaborateurs,
- de développer votre expertise dans un environnement en pleine transformation, au carrefour de l’innovation et de l’expérience client : notre ambition, être un acteur digital, omnicanal et agile, champion de l'expérience client,
- de vous engager au sein d'une entreprise engagée : nous rejoindre, c’est faire partie d’un Groupe responsable qui agit en entreprise citoyenne en étant mobilisé autour de 4 axes (santé, aidants, éducation et environnement) avec un impact sociétal positif et réel.
Dans un contexte d’accélération de sa stratégie Data, le groupe renforce ses capacités pour répondre à des enjeux métiers majeurs : lutte contre la fraude, accompagnement des équipes commerciales, fidélisation des assurés et optimisation continue de la performance grâce à l’intelligence artificielle.
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe Data. Vous interviendrez à la fois sur le développement et la maintenance des pipelines métiers (environ 60 % de votre activité) et sur l’évolution de notre plateforme d’orchestration Dagster (environ 40 %), au cœur de notre écosystème data.
VOS FUTURES MISSIONS :1. Data Engineering
Conception et industrialisation des pipelines de données
- Concevoir, développer et maintenir des pipelines ELT robustes et scalables dans un environnement Snowflake / dbt
- Garantir la disponibilité, la sécurité et la qualité des flux de données
- Intégrer et fiabiliser des sources de données hétérogènes (bases de données, APIs, fichiers plats
Innovation et amélioration continue
- Contribuer aux projets structurants de la roadmap Data 2025 (Fraude, GENIA, KPI transverses, etc.)
- Proposer et mettre en œuvre des optimisations sur les processus de transformation et de modélisation des données
- Participer aux choix technologiques et à la définition des standards et bonnes pratiques Data
Documentation et partage des connaissances
- Rédiger et maintenir la documentation technique
- Accompagner et former les équipes métiers et techniques sur les nouveaux flux et usages data
- Superviser le bon fonctionnement de la plateforme d’orchestration
- Administrer les jobs, schedules et sensors
- Diagnostiquer, analyser et résoudre les incidents d’exécution
- Participer aux déploiements et mises à jour de Dagster sur Azure Kubernetes Service (AKS)
- Optimiser les performances de la plateforme (gestion des ressources, métadonnées, fiabilité)
- Contribuer aux pipelines CI/CD (GitLab CI, Azure Key Vault)
- Mettre en œuvre et faire évoluer les starter kits à destination des équipes Data
- Accompagner les équipes dans l’adoption et l’utilisation de Dagster
- Documenter et diffuser les bonnes pratiques d’orchestration
- Contribuer à la définition et à l’évolution de la stratégie DataOps
Notre stack technique :
- Orchestration : Dagster (que vous apprendrez avec nous), VTOM
- ELT/Transformation : Talend et Data Build Tool (essentiel), Data Load Tool
- Stockage : Snowflake (alimenté via BDD, API, fichiers plats...)
- Versioning : Git / GitLab
- BI et Dataviz : Qlik Sense, Streamlit
- Développement : Python (maîtrise requise), SQL
- Infrastructure : Azure (AKS), Docker, Kubernetes, Helm
- DevOps : GitLab CI, Azure KeyVault, Terraform
Notre roadmap 2025 comprend :
- Amélioration de la performance opérationnelle grâce à l’IA
- Lutte contre la fraude
- Fidélisation de nos assurés
- Industrialisation de notre écosystème Data
Directement rattaché.e à une équipe Data groupe, vous rejoindrez notre équipe Lyonnaise.
Dès votre arrivée, vous bénéficierez d'un parcours d'intégration pour favoriser votre prise de poste.
Profil
Vous disposez de 5 à 10 ans d’expérience en Data Engineering et d’une expertise solide dans la conception de pipelines de données, les transformations et la qualité des données. Vous avez évolué dans des environnements data modernes (cloud, orchestration, data warehouse) et souhaitez élargir votre périmètre vers des enjeux de plateforme et d’industrialisation.
Compétences clés- Python et SQL avancés (modélisation, performance, data processing)
- Conception de pipelines ELT robustes et monitorés
- Expérience avec dbt, Snowflake (ou équivalent)
- Maîtrise des bonnes pratiques Git
- Utilisation d’un outil d’orchestration (Dagster, Airflow…)
- Environnements cloud et notions Kubernetes / Docker
- Sensibilité DevOps / CI-CD / IaC
- Appétence pour les sujets DataOps et Platform Engineering
Si vous n’êtes pas sûr(e) que cette offre soit LA bonne, d’autres postes sont à pourvoir, alors n’hésitez pas à consulter notre site carrière et/ou notre page Linkedin !
Infos pratiques
Le mot de la DRH
Rejoindre APRIL, C’est intégrer une équipe engagée, dynamique et solidaire ; C’est bénéficier d’un cadre de travail stimulant et favorisant le développement de chacun ; C’est s’inscrire dans un projet d’entreprise ambitieux où l’on se sent utile et fier ; C’est participer à protéger les millions d’assurés que nous accompagnons au quotidien, à chaque moment qui compte ; Chez APRIL, Ensemble prenons soin du futur. Nos équipes vous attendent.


