CrawlJobs Logo

Data Engineering

decathlon.fr Logo

Decathlon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Responsabilités:

  • Tu joues un rôle essentiel dans le développement et la maintenance de l’architecture des données
  • Tu crées des pipelines efficaces pour transformer les données brutes en insights exploitables à l’amélioration des expériences clients et collaborateurs
  • Tu collabores avec différentes équipes pour soutenir la prise de décision fondées sur les données des différentes organisations

Exigences:

  • Tu maîtrises au moins l’un des langages suivants : Python, Scala, Java
  • Tu sais optimiser les traitements spark sur des pipelines en production
  • Tu justifies d’expériences significatives sur des projets d’ampleurs et dans la mise en œuvre de pipelines critiques
  • Tu démontres une expertise technique et fonctionnelle sur ton domaine et comprends les enjeux associés
  • Tu comprends le cycle de vie de la donnée et tu es à l’aise avec les concepts de data lineage, data gouvernance et data privacy

Informations supplémentaires:

Offre publiée:
08 décembre 2025

Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineering

Data Engineering Manager

At Doctolib, data is mission-critical to simplifying access to healthcare and im...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
doctolib.fr Logo
Doctolib
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Strong analytical skills, result-oriented, and user-first
  • 12+ years of experience in data engineering and data ops
  • 6+ years managing Data Engineers / Data Ops
  • Proven experience operating large-scale data platforms in production (batch and streaming)
  • Deep care about data quality, lineage, observability, and cost control
  • Understanding of data governance, security, and privacy in regulated environments (e.g., GDPR)
  • Hands-on with SQL and Python
  • Familiar with modern data stacks (e.g., orchestration such as Airflow/Dagster
  • transformation framework such as dbt
  • streaming services such as Kafka/Kinesis
Responsabilités
Responsabilités
  • Lead, grow, and coach a team of Data Ops Engineers
  • Define the technical strategy and roadmap for data platform capabilities
  • Build and operate robust batch and real-time data pipelines with strong SLAs/SLOs, observability, lineage, and cost efficiency (FinOps)
  • Establish high standards for data quality and governance: data contracts, testing, documentation, schemas, cataloging, and access controls
  • Enable product and AI/ML teams with reliable datasets and services (feature pipelines, event streams, metrics layers, experiment data)
  • Drive best practices in data modeling (e.g., dimensional, wide tables, semantic layers) and transformation frameworks
  • Partner with Security/Legal to ensure privacy-by-design and compliance with EU regulations (GDPR, and health data requirements such as HDS in France): PII minimization, encryption, retention, and audit
  • Champion platform reliability: on-call readiness, incident response, postmortems, and continuous improvement
  • Collaborate with stakeholders to translate business needs into data products and measurable outcomes
  • plan and deliver via OKRs
Ce que nous offrons
Ce que nous offrons
  • Free comprehensive health insurance for you and your children
  • Parent Care Program: receive one additional month of leave on top of the legal parental leave
  • Free mental health and coaching services through our partner Moka.care
  • For caregivers and workers with disabilities, a package including an adaptation of the remote policy, extra days off for medical reasons, and psychological support
  • Work from EU countries and the UK for up to 10 days per year, thanks to our flexibility days policy
  • Up to 14 days of RTT
  • A subsidy from the work council to refund part of the membership to a sport club or a creative class
  • Lunch voucher with Swile card
  • Temps plein
Lire la suite
Arrow Right

Cloud Automation & Data Engineer

Pour le compte d’un grand groupe industriel international nous recherchons un pr...
Emplacement
Emplacement
France , Aix-en-Provence
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d'un Bac+5 et délivré(e) d'une école d'Ingénieur(e) ou équivalent
  • Au moins 5 ans d'expérience professionnelle dans une fonction similaire
  • Expertise AWS (infrastructure et services data)
  • Infrastructure as Code : Terraform
  • DevSecOps & CI/CD
  • Conteneurisation et orchestration (Docker, Kubernetes)
  • Architectures serverless et microservices
  • Scripting et développement : Python, Bash, SQL
  • Data engineering : ETL/ELT, data modeling, data lifecycle
  • Gouvernance et qualité de la donnée
Responsabilités
Responsabilités
  • Automatiser et fiabiliser les infrastructures cloud et les services data
  • Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps
  • Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes
  • Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering
  • Concevoir et mettre en œuvre d’infrastructures cloud as code (Terraform)
  • Automatiser du provisioning et du cycle de vie des ressources cloud AWS
  • Optimiser des environnements cloud (scalabilité, disponibilité, performance)
  • Automatiser les services data AWS (S3, Glue, Kinesis, etc.)
  • Industrialiser et superviser des pipelines data
  • Mettre en place et améliorer les pipelines CI/CD
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu'à 2 jours par semaine
  • Forfait avantages intéressants : une mutuelle, un CSE, des titres restaurants, un accord d'intérêt, des primes vacances et cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Des centaines de formations pour développer vos compétences et évoluer au sein du Groupe
  • Plateformes de formations en autonomie pour préparer vos certifications et accompagner votre développement personnel
  • Possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • Opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore)
  • Entreprise certifiée Great Place To Work
  • Événements par an organisés afin de nous rassembler et partager des moments de convivialité : afterworks, petits déjeuners, challenges sportifs et e-sportifs, communautés techniques
  • Temps plein
Lire la suite
Arrow Right

Senior Data Developer

Le groupe international, leader dans son secteur accélère sa transformation digi...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Senior Data Developer

Le groupe international, leader dans son secteur accélère sa transformation digi...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Expert Dataiku

Nous accompagnons l’un de nos clients grands comptes dans la structuration et l’...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
Non fourni
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 4+ ans d’expérience en Data Engineering / Data Analytics
  • Maîtrise avancée de Dataiku DSS : recettes, scénarios, automations, API Node, plugins…
  • Très bonnes compétences en Python, SQL, Git
  • Connaissance d’un environnement cloud (Azure / GCP / AWS) appréciée
  • Capacité à vulgariser et à accompagner les équipes métier
  • Autonomie, proactivité, sens de la qualité
Responsabilités
Responsabilités
  • Concevoir, développer et industrialiser des workflows sur Dataiku (DSS)
  • Mettre en place des pipelines de data préparation, data cleaning, automatisation
  • Structurer la plateforme : bonnes pratiques, naming, organisation des projets
  • Accompagner les équipes Data/Metier dans l’adoption des features DSS
  • Assurer le monitoring, la performance et la qualité des pipelines
  • Contribuer à l’industrialisation et au passage en production des use cases
  • Participation aux cérémonies agiles et interactions régulières avec les équipes internes
  • Documentation, optimisation et veille technologique autour de DSS / Data Engineering
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right