INGENIEUR SOCLE BIG DATA GCP F/H
Description du poste
Famille / Métier
DONNEE - EXPERT DE LA GOUVERNANCE ET DE L'EXPLOITATION
Intitulé du poste
INGENIEUR SOCLE BIG DATA GCP F / H
Type de contrat
Finalité du poste
Rattaché(e) au Service Data Hub, au sein du Département Solution Data et Usages de la Direction des Systèmes d'Information et du Digital, vous contribuerez à la construction de la plateforme Data Hub sur GCP (S3ns).
Vous participerez à la mise en œuvre du Framework technique sur GCP, à sa maintenance et à son optimisation, dans le respect des principes, règles et normes du Groupe.
Vous vous inscrirez dans un mode de fonctionnement Agile, à l’intérieur du Train Data (SAFe), dans un contexte de transformation fort et ambitieux pour l'ensemble du groupe AG2R La Mondiale (Programme de Plateformisation).
Contenu du poste
A ce titre, vous contribuerez aux développements des différentes capacités techniques mises à disposition des équipes de développement Métier, permettant :
- d’intégrer des données en provenance de différents types de sources, dans le DataHub,
- de transformer ces données sur le DataHub,
- d’exposer ces données pour différents types d’exploitation (API, outils BI, mise à disposition de données vers des applications externes),
en respectant les normes, prinipes et patterns construits avec les architectes fonctionnels et techniques et en répondant aux exigences d’industrialisation, de sécurisation, de logs & de supervision.
Vous participerez également aux activités :
- de Support & Assistance aux utilisateurs de la plateforme sur les capacités du Socle,
- de Développement de prototypes sur de nouvelles capacités mises en œuvre sur GCP,
- de type DevOps, sur les aspects CI / CD, Terraform, automatisation des tests,
- en lien avec le FinOps, en contribuant à la mise en place d’actions en rapport avec le monitoring, la supervision et l’optimisation des services sur la plateforme.
Expérience et compétences attendues
attendues
De formation supérieure en informatique (BAC+5), vous avez enrichi vos connaissances pendant au moins 3 ans dans le cadre de votre parcours professionnel, avec des expériences significatives dans le développement de pipelines de données (batch, microbatch et événementiel), de préférence sur des plateformes Big Data Cloud, idéalement GCP, et le développement de composants génériques de Framework.
Vous maitrisez :
- Python et SQL / BQL
- Plusieurs services GCP : BigQuery (Mise en œuvre & Optimisation (partitionnement, clustering)), Cloud Storage, Dataflow, Composer, PubSub, Cloud Logging, Cloud Run, Cloud Functions.
- Terraform, GitLab, Jenkins / Cloudbees
Compétences complémentaires appréciées :
- Certifications GCP Data Engineer
- Docker, GKE, Cloud KMS, BigTable, Firestore, Dataplex, Analytics Hub.
- Connaissance d’outils ETL / ELT (DBT, Semarchy, Talend, ) et d’outils BI / Datavizualization.
Qualités requises
Vous vous caractérisez par votre rigueur, votre capacité d’écoute et d’analyse, votre sens du service et vous faites preuve de pédagogie.
Doté(e) d'ouverture d'esprit et de curiosité, vous avez de bonnes qualités relationnelles et de communication écrite et orale.
Vous savez travailler en équipe, en mode collaboratif, Agile.
Vous êtes proactif(ve) et dynamique.
Le poste peut être basé à Esvres (Tours) ou à Paris.
Informations complémentaires (externe)
Poste ouvert à la cooptation interne.
Localisation du poste
Pays / Région / Département
France, Centre Val de Loire, INDRE ET LOIRE (37)
Ville
ESVRES SUR INDRE
Lieu de travail / Etablissement
Esvres sur Indre