CrawlJobs Logo

Data Engineering

decathlon.fr Logo

Decathlon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Responsabilités:

  • Tu joues un rôle essentiel dans le développement et la maintenance de l’architecture des données
  • Tu crées des pipelines efficaces pour transformer les données brutes en insights exploitables à l’amélioration des expériences clients et collaborateurs
  • Tu collabores avec différentes équipes pour soutenir la prise de décision fondées sur les données des différentes organisations

Exigences:

  • Tu maîtrises au moins l’un des langages suivants : Python, Scala, Java
  • Tu sais optimiser les traitements spark sur des pipelines en production
  • Tu justifies d’expériences significatives sur des projets d’ampleurs et dans la mise en œuvre de pipelines critiques
  • Tu démontres une expertise technique et fonctionnelle sur ton domaine et comprends les enjeux associés
  • Tu comprends le cycle de vie de la donnée et tu es à l’aise avec les concepts de data lineage, data gouvernance et data privacy

Informations supplémentaires:

Offre publiée:
08 décembre 2025

Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineering

Data Engineering Manager

At Doctolib, data is mission-critical to simplifying access to healthcare and im...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
doctolib.fr Logo
Doctolib
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Strong analytical skills, result-oriented, and user-first
  • 12+ years of experience in data engineering and data ops
  • 6+ years managing Data Engineers / Data Ops
  • Proven experience operating large-scale data platforms in production (batch and streaming)
  • Deep care about data quality, lineage, observability, and cost control
  • Understanding of data governance, security, and privacy in regulated environments (e.g., GDPR)
  • Hands-on with SQL and Python
  • Familiar with modern data stacks (e.g., orchestration such as Airflow/Dagster
  • transformation framework such as dbt
  • streaming services such as Kafka/Kinesis
Responsabilités
Responsabilités
  • Lead, grow, and coach a team of Data Ops Engineers
  • Define the technical strategy and roadmap for data platform capabilities
  • Build and operate robust batch and real-time data pipelines with strong SLAs/SLOs, observability, lineage, and cost efficiency (FinOps)
  • Establish high standards for data quality and governance: data contracts, testing, documentation, schemas, cataloging, and access controls
  • Enable product and AI/ML teams with reliable datasets and services (feature pipelines, event streams, metrics layers, experiment data)
  • Drive best practices in data modeling (e.g., dimensional, wide tables, semantic layers) and transformation frameworks
  • Partner with Security/Legal to ensure privacy-by-design and compliance with EU regulations (GDPR, and health data requirements such as HDS in France): PII minimization, encryption, retention, and audit
  • Champion platform reliability: on-call readiness, incident response, postmortems, and continuous improvement
  • Collaborate with stakeholders to translate business needs into data products and measurable outcomes
  • plan and deliver via OKRs
Ce que nous offrons
Ce que nous offrons
  • Free comprehensive health insurance for you and your children
  • Parent Care Program: receive one additional month of leave on top of the legal parental leave
  • Free mental health and coaching services through our partner Moka.care
  • For caregivers and workers with disabilities, a package including an adaptation of the remote policy, extra days off for medical reasons, and psychological support
  • Work from EU countries and the UK for up to 10 days per year, thanks to our flexibility days policy
  • Up to 14 days of RTT
  • A subsidy from the work council to refund part of the membership to a sport club or a creative class
  • Lunch voucher with Swile card
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Senior Data Developer

Le groupe international, leader dans son secteur accélère sa transformation digi...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Expert Dataiku

Nous accompagnons l’un de nos clients grands comptes dans la structuration et l’...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
Non fourni
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 4+ ans d’expérience en Data Engineering / Data Analytics
  • Maîtrise avancée de Dataiku DSS : recettes, scénarios, automations, API Node, plugins…
  • Très bonnes compétences en Python, SQL, Git
  • Connaissance d’un environnement cloud (Azure / GCP / AWS) appréciée
  • Capacité à vulgariser et à accompagner les équipes métier
  • Autonomie, proactivité, sens de la qualité
Responsabilités
Responsabilités
  • Concevoir, développer et industrialiser des workflows sur Dataiku (DSS)
  • Mettre en place des pipelines de data préparation, data cleaning, automatisation
  • Structurer la plateforme : bonnes pratiques, naming, organisation des projets
  • Accompagner les équipes Data/Metier dans l’adoption des features DSS
  • Assurer le monitoring, la performance et la qualité des pipelines
  • Contribuer à l’industrialisation et au passage en production des use cases
  • Participation aux cérémonies agiles et interactions régulières avec les équipes internes
  • Documentation, optimisation et veille technologique autour de DSS / Data Engineering
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Junior Data Engineer R&D

The Data Platform team is looking for an intern Data Engineer based in Lille. At...
Emplacement
Emplacement
France , Villeneuve-d'Ascq
Salaire
Salaire:
Non fourni
vo2-group.com Logo
VO2 Group
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Master 1 or Master 2 Student in Computer Science, Data Science, or Applied Mathematics
  • Good knowledge of SQL
  • Good knowledge of Python
  • Git
  • Understanding of distributed systems and parallel processing
  • Fluent in both French and English
Responsabilités
Responsabilités
  • Design and implement an automated tracking solution using (Fine-Grained) Data Provenance
  • Contribute to the design and implementation of a Data Provenance tool compatible with Apache Spark
  • Bridge the gap between theoretical research and industrial reality, exploring algorithmic approaches for massive data scale
  • Ensure Trust & Reliability by guaranteeing the accuracy of results for data consumers and enabling precise Root Cause Analysis
  • Solve compliance & testing challenges, ensuring PII data is tracked for GDPR and extracting representative subsets for prototyping
  • Lead Knowledge Transfer by translating advanced theoretical concepts into accessible insights to upskill the wider Data Engineering team
Ce que nous offrons
Ce que nous offrons
  • Choice of hardware (Mac or Windows)
  • 50% reimbursement of your public transportation pass
  • Team building
  • Financement des certifications
  • Plan d’épargne entreprise (PEE)
  • Horaires de travail flexibles
  • Plan de développement professionnel
  • Temps plein
Lire la suite
Arrow Right

Senior Data Developer

Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’in...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Senior platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right