Les missions du poste
Dans le cadre du développement du DatahubV2, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et les architectures Data modernes.
Vous interviendrez au sein de l'équipe Socle Data et serez responsable de la construction, l'optimisation et la fiabilisation des pipelines data, tout en garantissant les bonnes pratiques de développement et de performance.
Vos missions principales :
- Concevoir, développer et optimiser des pipelines de données performants (batch, calcul distribué).
- Développer des traitements Spark 3 instanciés sur Kubernetes (Spark as a Service).
- Manipuler les données du DatahubV2 via Starburst (Trino) en SQL.
- Construire et orchestrer des workflows Data sur Astronomer / Apache Airflow en Python.
- Réaliser les intégrations applicatives en Java (et potentiellement Scala selon les applications).
- Assurer la qualité, la performance et la fiabilité des jobs Data.
- Contribuer à la mise en place et à la maintenance des pipelines DevOps (Gitlab, Jenkins, ArgoCD...).
- Suivre et analyser les logs applicatifs via ELK (Log as a Service).
- Coopérer avec l'équipe Socle Data, utiliser et faire évoluer les librairies Python internes.
- Participer à la documentation et à l'amélioration continue des pratiques Data du DatahubV2.
Technologies & Compétences requises
Compétences Data / Big Data
- Spark 3 - Java ou Scala Avancé
- Traitements distribués, performance, optimisation, exécution sur Kubernetes.
- Starburst (Trino) - SQL Moyen
- Requêtage SQL interactif, combinaison multi-sources, compréhension du SEP.
- Apache Airflow / Astronomer - Python Moyen
- Création, planification et supervision de DAGs, orchestration de workflows.
Compétences Cloud / Infrastructure
- Kubernetes, COS (S3), Vault Bas
- Compréhension des environnements cloud de la DMZR.
- Log as a Service (ELK) Moyen
- Dashboarding, gestion et analyse des logs.
Compétences DevOps
- Gitlab, Jenkins, ArgoCD, Ansible - Go / Yaml Bas
- Gestion et évolution de pipelines CI/CD basés sur des templates existants.
Langages
- Java Moyen
- SQL Moyen
- Python Moyen
- Scala Moyen
Le profil recherché
Profil recherché
- Expérience confirmée en tant que Data Engineer sur des environnements distribués et Big Data.
- Très bonne maîtrise de Java et Spark.
- Capacité à travailler dans un environnement cloud, containerisé et orienté DevOps.
- Bon niveau en SQL pour manipuler des données multi-sources.
- Autonomie, rigueur, esprit d'analyse, sens de la performance.
- Une expérience en contexte bancaire ou datahub est un plus.
Compétences requises
- Python
- Java
- Esprit d'analyse
- Scala