CrawlJobs Logo

Data Engineer GCP

randstaddigital.fr Logo

Randstad Digital France

Location Icon

Emplacement:
France , Paris

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Le Data Engineer conçoit, développe et optimise les pipelines de données sur Google Cloud Platform afin de garantir la disponibilité, la qualité et la performance des données pour les usages analytiques et métiers.

Responsabilités:

  • Concevoir et maintenir des pipelines de données (ingestion, transformation, stockage)
  • Développer des traitements sur GCP (BigQuery, Cloud Run, Dataflow, etc.)
  • Assurer la qualité, la fiabilité et la sécurité des données
  • Automatiser les flux de données (CI/CD, orchestration)
  • Optimiser les performances et les coûts des traitements
  • Participer à la mise en place des bonnes pratiques DataOps
  • Superviser et gérer les incidents liés aux pipelines

Exigences:

  • Bac+5 (école d’ingénieur, université ou équivalent)
  • Expérience en data engineering et environnement cloud
  • Bonne maîtrise de GCP et des architectures data modernes

Souhaitable:

  • SQL avancé
  • Python
  • Airflow
  • stockage type S3 / GCS
  • outils de transfert de fichiers (CFT)
Ce que nous offrons:
  • Développer son expertise et en apprendre de nouvelles : projection de carrière, formation, etc.
  • Être accompagné au quotidien par des interlocuteurs Talent manager, solution Sales et Tech
  • Être agile jusqu'au bout des ongles : on fait des rétrospectives, pas des comités de direction
  • Limiter notre empreinte environnementale : écoconception !

Informations supplémentaires:

Offre publiée:
04 mai 2026

Expiration:
08 mai 2026

Type d'emploi:
Temps plein
Type de travail:
Travail sur site
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer GCP

Consultant Data Engineer Cloud GCP

L’équipe Cloud 4 Data, forte de 70 collaborateurs, joue un rôle clé à la fois da...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d’une école d’Ingénieur ou d’une formation technique niveau Master à Doctorat
  • Au moins 4 années d’expérience sur les sujets Data avec des réussites notables sur la technologie GCP
  • Certification GCP (Professional Data Engineer, Professional Cloud Architect) serait un atout
  • Connaissances des technologies Data et BI, surtout liés à l’écosystème GCP
  • Maîtrise de l’ingestion, la transformation et la préparation des données en utilisant des langages tels que Scala, Python, Java, SQL
  • Habitué(e) aux environnements Cloud comme AWS, Azure, Google Cloud pour déployer des clusters
  • Familier avec les outils de monitoring (Cloud Monitoring, Cloud Audit Logs, AWS CloudWatch, CloudTrail,) et de gestion des clusters (CloudFormation, Terraform…)
  • Expérience sur des problématiques de gestion des performances, mise en place de bonnes pratiques, conceptions & implémentation de pipelines de données complexes, maîtrise des bases de données SQL et NoSQL
  • Familier avec des systèmes de traitement en temps réel tels que Kinesis, Lambda, MSK, Cloud Pub/Sub, BigQuery, Kafka, Redpanda…
  • Idéalement une première expérience dans la conception d’architectures techniques
Responsabilités
Responsabilités
  • Participer à des ateliers technico-fonctionnel, préconiser des outils, concevoir des solutions et les mettre en œuvre
  • Réaliser des projets décisionnels et optimiser les solutions techniques
  • Savoir auditer des architectures existantes et proposer des améliorations
  • Participer aux phases d’avant-vente et au chiffrage des projets
  • Être Référent(e) sur les bonnes pratiques et les étapes de la mise en place d’un projet cloud
  • Contribuer à l’évolution des équipes internes via le transfert de connaissances, l’animation d’ateliers thématiques grâce à votre veille technologique active
Ce que nous offrons
Ce que nous offrons
  • Prime d’équipement de 100 €
  • Mutuelle prise en charge à hauteur de 80% minimum
  • Titres-restaurant
  • Primes de cooptation de 500 à 4000€
  • Actionnariat salarié
  • Retour de congé maternité possible à 4/5ème sans perte de salaire pendant 6 mois
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Offre de formation complète sur site et à distance, programme de mentoring pour les femmes
  • Mobilité en France et à l’étranger
  • Activité sportive hebdomadaire au sein des locaux encadré par un coach
  • Temps plein
Lire la suite
Arrow Right

Stagiaire Data Engineer

Le stage proposé s’inscrit dans cette démarche : concevoir une solution complète...
Emplacement
Emplacement
France , Toulouse
Salaire
Salaire:
Non fourni
wwws.airfrance.fr Logo
Air France
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Formation Bac+5 en Data Engineer, Statistiques, Informatique, Mathématiques ou équivalent
  • Maîtrise des outils d'analyse et de visualisation (SQL, Power BI, Spotfire)
  • Excellentes capacités analytiques
  • Rigueur, autonomie, esprit d’équipe
  • Capacité à gérer plusieurs projets simultanément
  • Communication aisée d'analyses complexes à des interlocuteurs non techniques
  • Sens du détail et exigence dans la qualité des livrables
  • Langue Anglaise (Confirmé / C1)
  • Langue Française (Confirmé / C1)
Responsabilités
Responsabilités
  • Concevoir et mettre en place un dispositif de suivi des performances, des coûts et de la complétude des flux SDH dans l’environnement GCP
  • Développer un tableau de bord Power BI centralisant ces informations de manière claire et visuelle
  • Identifier les indicateurs clés (coûts BigQuery, volumétrie et latence des événements Kafka, erreurs ou ruptures de flux, taux de complétude et fréquence de rafraîchissement des données)
  • Collecter les données de logs et de métriques GCP
  • Centraliser ces informations dans un dataset de monitoring dans BigQuery
  • Concevoir un tableau de bord Power BI pour la visualisation et le pilotage
  • Documenter la solution, automatiser les rapports et proposer des mécanismes d’alerte
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Randstad Digital accompagne ses clients dans leurs projets de transformation num...
Emplacement
Emplacement
France , Lille
Salaire
Salaire:
Non fourni
randstaddigital.fr Logo
Randstad Digital France
Date d'expiration
29 mai 2026
Flip Icon
Exigences
Exigences
  • Niveau Bac+3 à Bac+5 en Informatique
  • Au moins 3 années d'expérience sur un poste de Data Engineer
  • Maîtrise avancée d'au moins un outil majeur de transformation de données comme Stambia ou Talend
  • Excellente maîtrise du langage SQL
  • Expérience significative avec Google Cloud Platform (GCP) et BigQuery
  • Connaissance d'un langage de scripting (Python, Scala) est un plus
  • Familiarité avec un outil de Business Intelligence comme Power BI (ou Tableau, Looker)
  • Connaissance des pratiques DevOps/DataOps et de l'intégration continue (CI/CD)
Responsabilités
Responsabilités
  • Concevoir et développer des pipelines ETL/ELT robustes et évolutifs
  • Gérer et optimiser les plateformes de données dans le cloud sur GCP
  • Participer à la modélisation des données pour les entrepôts (Data Warehouse) et les Data Marts
  • Assurer la fiabilité, l'intégrité et la gouvernance des données
  • Collaborer avec les équipes d'analyse pour mettre à disposition des données prêtes à être exploitées
  • Identifier et résoudre les problèmes de performance des bases de données et des pipelines de données
Ce que nous offrons
Ce que nous offrons
  • Management personnalisé assuré par un(e) Gestionnaire de carrière
  • Licence Udemy Business pour tous les collaborateurs
  • Possibilité de télétravailler plusieurs jours par semaine
  • 34 jours de congés par an
  • Prise en charge à 100% des titres de transport
  • Tickets restaurant/ mutuelle
  • Prime de parrainage 1 500€
  • Avantage CSE (carte cadeaux, subventions mensuels, loisirs, promotion etc.)
  • Évènements techniques et festifs
  • Certification top employeur 2025
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Azure

Vous avez un esprit analytique et une passion pour les projets IT et Data ? Vous...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 62000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Expérience avérée en tant que Data Engineer
  • Français courant obligatoire
  • Maitrise de l'anglais
  • Cadrage en amont de la phase de développement avec les métiers
  • Mise en place de nouveaux flux de données sous Talend et Azure
  • Déploiement as code des pipelines (Cloud, CI/CD)
  • Analyse des coûts de mise en place pour les nouvelles demandes
  • Maitrise de Azure et particulièrement Azure Data Factory
  • Certification Azure
  • Python
Responsabilités
Responsabilités
  • Concevoir, développer et maintenir des pipelines de données robustes et automatisés
  • Construire et optimiser des architectures data (Data Lake, Data Warehouse, orchestration, ingestion)
  • Industrialiser des traitements data à grande échelle (batch, streaming)
  • Déployer, monitorer et sécuriser des environnements cloud (Azure, AWS ou GCP selon les missions)
  • Mettre en place les bonnes pratiques : CI/CD, tests, qualité du code, documentation
  • Collaborer avec les Data Scientists, Analysts, Product et équipes métiers
  • Garantir la performance, la fiabilité et la scalabilité des solutions data délivrées
  • Contribuer à la veille technologique et au partage interne de connaissances au sein de la PySquad
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Rejoignez une entreprise de renommée mondiale spécialisée dans le Big Data et la...
Emplacement
Emplacement
France , Fontenay-sous-Bois
Salaire
Salaire:
32000.00 - 48000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Étudiant(e) en Bac+3/4 en informatique, Data Science, mathématiques appliquées ou ingénierie
  • Maîtrise des langages Python, Java, et SQL
  • Connaissance des technologies Big Data telles que Hadoop, Spark, et Kafka
  • Compétences en gestion de bases de données relationnelles (SQL) et NoSQL
  • Bonne compréhension des environnements cloud (AWS, Azure, GCP)
Responsabilités
Responsabilités
  • Concevoir et déployer des pipelines de données évolutifs et robustes
  • Ingestion et transformation de grandes quantités de données provenant de différentes sources
  • Travailler avec des technologies de pointe telles que Hadoop, Spark, Kafka
  • Gérer des bases de données relationnelles (SQL) et NoSQL
  • Contribuer à la mise en place d’architectures Cloud pour le stockage et la gestion des données
  • Orchestrer les flux de données via des outils comme Apache Airflow
Ce que nous offrons
Ce que nous offrons
  • Encadrement personnalisé par des professionnels expérimentés
  • Possibilité de travailler sur des projets innovants à fort impact stratégique
  • Formation continue sur les dernières technologies et outils du Big Data
  • Environnement dynamique et collaboratif, stimulant l'innovation
  • Perspectives de carrière à la fin du période dans un secteur en pleine expansion
  • Frais de scolarité pris en charge à 100 %
  • École libre choix du candidat
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Data Engineer GCP

Au sein de notre Vertical Services Financiers et pour le compte de nos clients b...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé d’un Bac+5 d’une école d’ingénieur ou d’un cursus universitaire
  • Expérience de 5 ans minimum dans le domaine de la Data Engineering
  • Solide culture en matière d’industrialisation / qualité / automatisation
  • Maîtrise des environnements Cloud et des chaînes CI/CD
  • Aise pour produire un code lisible, documenté, testable et à gérer le RUN (analyse d'incident, correctifs)
Responsabilités
Responsabilités
  • Développement des pipelines de traitement de données et des scripts de déploiement
  • Rédaction/maintien de la documentation des user stories garantissant le respect de l’architecture
  • Gestion des anomalies, contribution au RUN et lien avec l’exploitation
  • Participation au delivery continu et à l’automatisation des tests
Ce que nous offrons
Ce que nous offrons
  • Un accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Une mutuelle
  • Un CSE
  • Des titres restaurants
  • Un accord d’intéressement
  • Des primes vacances et cooptation
  • Des opportunités de carrières multiples
  • Plusieurs centaines de formations accessibles en toute autonomie avec Sopra Steria Academy
  • La possibilité de s’engager auprès d’une association grâce à notre plateforme d’engagement citoyen
  • L'opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore)
  • Temps plein
Lire la suite
Arrow Right