Concevoir et implémenter des flux de données (ingestion, stockage, transformation, provisionnement) dans le Datalake.Travailler au sein d'une architecture cloud AWS (S3, Glue, ECS, etc.). Une solide compréhension des services AWS est requise.Développer et maintenir des systèmes à l'aide du framework Spark, Scala et SQL.Contribuer à la maintenance opérationnelle du Datalake.Utiliser les pratiques DevOps et des outils de déploiement automatisé tels que Jenkins, Ansible, CloudFormation, Git et Maven. Bien que la connaissance de ces outils (notamment Git et Maven) soit un atout, elle n'est pas obligatoire.Prendre en charge les tâches de développement liées aux projets de build.Profil candidat : Au moins 3 ans d'expérience dans un rôle similaire, notamment en ingénierie des données et dans les environnements cloud.Excellente maîtrise de Spark, Scala et SQL.Solide connaissance de l'architecture et des services cloud AWS (S3, Glue, ECS).Une expérience avec les outils DevOps est un plus, mais n'est pas obligatoire.