Entreprise
Capgemini est un leader mondial, responsable et multiculturel, regroupant 325 000 personnes dans plus de 50 pays. Partenaire stratégique des entreprises pour la transformation de leurs activités en tirant profit de toute la puissance de la technologie, le Groupe est guidé au quotidien par sa raison d’être : libérer les énergies humaines par la technologie pour un avenir inclusif et durable.
Fort de 55 ans d’expérience et d’une grande expertise des différents secteurs d’activité, Capgemini est reconnu par ses clients pour répondre à l’ensemble de leurs besoins, de la stratégie et du design jusqu’au management des opérations, en tirant parti des innovations dans les domaines en perpétuelle évolution du cloud, de la data, de l’Intelligence Artificielle, de la connectivité, des logiciels, de l’ingénierie digitale et des plateformes. Le Groupe a réalisé un chiffre d'affaires de 18 milliards d'euros en 2021.
Adresse
1100, bd El Qods (Sidi Maârouf), Casanearshore, shore 8, Imm. A 20270 Casablanca
Poste
En tant que Data Engineer GCP, vous serez responsable de la conception, du développement et de la maintenance des pipelines de données sur l’environnement Google Cloud Platform. Vous interviendrez dans un contexte de transformation data-driven, en collaboration avec les équipes Data Science, BI et IT.
Vos missions incluent :
Concevoir et développer des pipelines de données robustes et scalables (ETL/ELT) sur GCP.
Mettre en place et maintenir les architectures data (BigQuery, Dataflow, Pub/Sub, etc.).
Assurer la qualité, la sécurité et la gouvernance des données.
Participer à l’industrialisation des modèles de machine learning.
Collaborer avec les équipes métiers pour comprendre les besoins et proposer des solutions adaptées.
Documenter les processus et assurer la veille technologique sur les outils GCP.
Profile recherché
Compétences requises
Techniques :
Maîtrise de Google Cloud Platform : BigQuery, Cloud Storage, Dataflow, Pub/Sub, Composer, Vertex AI.
Solide expérience en SQL, Python et outils d’orchestration (Airflow).
Connaissance des architectures Data Lake / Data Warehouse.
Expérience avec les outils CI/CD (Cloud Build, GitLab CI, Terraform…).
Notions de sécurité et de gouvernance des données.
Fonctionnelles :
Capacité à comprendre les enjeux métiers et à les traduire en solutions techniques.
Bonnes compétences en communication et travail en équipe.
Esprit analytique, rigueur et autonomie.
Profil recherché
Bac +5 en informatique, data engineering, ou équivalent.
Expérience de 4 à 8 ans minimum sur un poste similaire.
Certification GCP (Data Engineer ou Cloud Architect) est un plus.
Join us and Rewrite The Future !