Au sein dune équipe en place vous prenez en charge les missions suivantes :
- Concevoir développer et maintenir des pipelines dingestion batch et streaming
- Implémenter des traitements Data robustes industrialisés et observables
- Participer à la construction dune architecture Lakehouse moderne
- Garantir la qualité la traçabilité et la fiabilité des données
- Contribuer à lindustrialisation (CI / CD DataOps automatisation)
- Collaborer étroitement avec les Data Architects Platform Engineers Product Owners et équipes métier
- Appliquer les bonnes pratiques de sécurité by design et de conformité
- Participer à la documentation et au transfert de connaissances
Qualifications :
Traitements & Data : Spark (batch / streaming) Python SQLStreaming : KafkaAccès & Query : Trino (Starburst en étude)DevOps / DataOps : Git CI / CD conteneurisation (Docker Kubernetes)Observabilité & Qualité : monitoring lineage data qualityEnvironnement On-Prem / Cloud privé / HybrideInformations supplémentaires :
Tous nos postes sont ouverts aux personnes en situation de handicap
Remote Work : No
Employment Type : Full-time
Key Skills
Apache Hive,S3,Hadoop,Redshift,Spark,AWS,Apache Pig,NoSQL,Big Data,Data Warehouse,Kafka,Scala
Experience : years
Vacancy : 1