CrawlJobs Logo

Data Engineer - Intégration

vo2-group.com Logo

VO2 Group

Location Icon

Emplacement:
France , Paris

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Tu cherches à donner du sens à ton talent et à avoir un impact positif sur le monde ? Née en 2016, padoa c’est 300 collaborateurs passionnés autour d’un logiciel et une offre de services conçus pour moderniser les services de santé au travail. Sur notre logiciel SaaS, nous gérons les dossiers médicaux de 8 millions de salariés en France. Avec une nouvelle levée de fonds de 80M€ en 2022, nous sommes prêts à réaliser notre mission : Faire du monde du travail un univers de prévention afin d’améliorer la santé de millions de personnes ! Pour ce faire, nous proposons une solution technologique innovante : - Une application de pré-visite et des objets connectés : pour simplifier l’expérience de visite avant la rencontre avec le professionnel de santé. - Une plateforme web repensée : pour que tous les acteurs de la santé au travail puissent gagner du temps et améliorer le suivi des salariés. - Une plateforme d’analyse de données : l’ensemble des actifs français sont vus en visite médicale tous les 2 à 5 ans ; exploiter ces données est une occasion formidable pour repenser la prévention et le bien-être au travail. Grâce à nos équipes et à notre positionnement premium, nous sommes devenus leader sur le marché français. Nous recrutons régulièrement les meilleurs talents pour concevoir, améliorer, développer, promouvoir et déployer padoa. Le projet te plait ? Rejoins l’aventure ! Tu rejoindras l’équipe Intégration, composée d’un peu plus d’un 20aine de Data Engineers. Cette équipe assure la reprise complète et structurée des données des anciens logiciels métier de nos clients vers les solutions padoa, dans le cadre des déploiements de nos nouveaux clients. L’équipe s’assure de comprendre les besoins en termes de données de différents corps de métiers (professionnels de santé, ingéniers de prévention, gestionnaires de facturation ...).

Responsabilités:

  • Tu participeras à l’analyse de l’état et de la structuration de la donnée de différents métiers dans les anciennes bases de sdonnées des clients, ainsi qu’à la reprise de ces données
  • Tu participeras aux challenges techniques d’amélioration de la codebase (perf, orchestration, intégration Azure etc.)
  • Tu développeras un code clair, maintenable et robuste
  • Tu maîtriseras la stack technologique padoa des Data Engineers : PostGreSQL, Python et Airflow
  • Tu participeras à des chantiers d’industrialisation de nos process, en fonction des besoins de l’équipe

Exigences:

  • Tu es dans une école d’ingénieur, informatique ou en master scientifique (de préférence en informatique) et tu cherches un stage de fin d’études ou une césure de minimum 5 mois
  • Tu es passionné par le développement informatique et l’analyse de données
  • Tu maîtrises les technologies cœur du Data Engineering (SQL, Python) et optionnellement certaines de nos autres technos
Ce que nous offrons:
  • Un positionnement premium avec une accompagnement reconnu et apprécié par nos clients
  • Une organisation flexible : 2 jours de télétravail flexibles par semaine
  • Un cadre de travail agréable : des locaux bien desservis et spacieux dans le 17ème avec du matériel de qualité
  • Une prise en charge de ton transport (à 50%) mais aussi vélo
  • Un super onboarding : sur padoa et ses équipes puis sur les spécificités de ton métier
  • Une évolution professionnelle : une structure dynamique qui valorise l’initiative et l’engagement à tous niveaux de séniorité, expert comme manager
  • Une vie d'entreprise bien remplie dans un cadre convivial : réunions all staff suivies d’une soirée, séminaire d’entreprise, budget team building, activités thématiques et un arbre de Noël
  • De quoi bien manger : une carte Swile (10€/jour pris en charge à 59%)
  • Café, thé, céréales, fruits en libre accès
  • Une politique handicap avec une charte d’entreprise et des actions concrètes
  • Un CSE dynamique qui propose notamment un abonnement HappyPal, des tarifs de groupe sur des évènements extérieurs

Informations supplémentaires:

Offre publiée:
19 mars 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer - Intégration

Data Engineer

Stage de Data Engineer. Participation aux étapes d'un projet (conception, réalis...
Emplacement
Emplacement
France , Toulouse
Salaire
Salaire:
Non fourni
beamy.io Logo
Beamy
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 (école d’Ingénieurs ou Université)
  • Sensibilité aux sujets liés à la Data
  • Connaissances générales autour de la Data
  • Connaissances des environnements techniques ou spécialisation sur l’une des technologies présentées
  • Rigueur
  • Adaptabilité
  • Proactivité
  • Collaboration
  • Analyse
Responsabilités
Responsabilités
  • Conception détaillée
  • Réalisation, développements
  • Tests unitaires et intégration
  • Mise à jour de la documentation technique
  • Application des normes qualité
  • Étude, conception et développement d’une solution industrielle ou innovante visant à développer nos offres de services autour des principales solutions Data du marché (Data Intégration, Data management, Data Visualisation, Cloud, Big Data, Analytics)
Ce que nous offrons
Ce que nous offrons
  • Projets d'envergure en lien direct avec ta formation et ton développement professionnel
  • Suivi régulier avec ton tuteur
  • Prise en charge jusqu'à 100% des transports en commun
  • Tickets restaurant
  • Moments de convivialité
  • Possibilité de poursuivre en CDI
  • Entre 2-3 jours de télétravail
  • Plan de développement professionnel
  • Remboursement au delà des 50%
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Randstad Digital accompagne ses clients dans leurs projets de transformation num...
Emplacement
Emplacement
France , Lille
Salaire
Salaire:
Non fourni
randstaddigital.fr Logo
Randstad Digital France
Date d'expiration
29 mai 2026
Flip Icon
Exigences
Exigences
  • Niveau Bac+3 à Bac+5 en Informatique
  • Au moins 3 années d'expérience sur un poste de Data Engineer
  • Maîtrise avancée d'au moins un outil majeur de transformation de données comme Stambia ou Talend
  • Excellente maîtrise du langage SQL
  • Expérience significative avec Google Cloud Platform (GCP) et BigQuery
  • Connaissance d'un langage de scripting (Python, Scala) est un plus
  • Familiarité avec un outil de Business Intelligence comme Power BI (ou Tableau, Looker)
  • Connaissance des pratiques DevOps/DataOps et de l'intégration continue (CI/CD)
Responsabilités
Responsabilités
  • Concevoir et développer des pipelines ETL/ELT robustes et évolutifs
  • Gérer et optimiser les plateformes de données dans le cloud sur GCP
  • Participer à la modélisation des données pour les entrepôts (Data Warehouse) et les Data Marts
  • Assurer la fiabilité, l'intégrité et la gouvernance des données
  • Collaborer avec les équipes d'analyse pour mettre à disposition des données prêtes à être exploitées
  • Identifier et résoudre les problèmes de performance des bases de données et des pipelines de données
Ce que nous offrons
Ce que nous offrons
  • Management personnalisé assuré par un(e) Gestionnaire de carrière
  • Licence Udemy Business pour tous les collaborateurs
  • Possibilité de télétravailler plusieurs jours par semaine
  • 34 jours de congés par an
  • Prise en charge à 100% des titres de transport
  • Tickets restaurant/ mutuelle
  • Prime de parrainage 1 500€
  • Avantage CSE (carte cadeaux, subventions mensuels, loisirs, promotion etc.)
  • Évènements techniques et festifs
  • Certification top employeur 2025
  • Temps plein
Lire la suite
Arrow Right

Data engineer Intégrations - RSE / Impact de la mode

En tant que Data Engineer, tu rejoindras l’équipe Intégrations (aux côtés de Nic...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
1100.00 EUR / Mois
balzac-paris.com Logo
Balzac Paris
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • En école d’ingénieur, à la recherche d’un stage de 2e partie de césure ou de fin d’études
  • Esprit entrepreneurial : curieux, autonome et force de propositions
  • À l’aise sur Excel
  • Organisé et rigoureux pour la gestion de projets
  • À l’aise en anglais à l’écrit et à l’oral
  • Souhaite découvrir l’ensemble des problématiques liées au développement d’un projet entrepreneurial au sein d’une équipe jeune et ambitieuse
Responsabilités
Responsabilités
  • Mener à bien l’import des données client (60 % des missions): Recevoir, passer en revue & critiquer les attentes de l’équipe accompagnement client (CSM) qui fournit le cahier des charges, identifier les points de blocage et les remonter à l’équipe technique, configurer notre pipeline d’intégration pour réaliser l’import (Excel + stack Typescript + NodeJS), et coordonner la vérification des modélisations avec le CSM
  • Amélioration continue et revues critiques (30% des missions): Revoir et proposer des axes d’amélioration des cahiers des charges import fourni par les CSM, le fonctionnement et la documentation de l’outil maison et tout autre élément abordé au quotidien
  • Représenter Waro auprès des clients lors des ateliers données (10% des missions): Préparer la réunion et synthétiser les attentes de Waro côté données envers ses clients, adapter un cahier des charges et le présenter lors de l’atelier en binôme avec un CSM
Ce que nous offrons
Ce que nous offrons
  • Travailler dans une startup à impact positif avec une forte ambition environnementale
  • Bénéficier d’un environnement bienveillant et stimulant dans lequel tu pourras rapidement monter en responsabilité
  • Participer à des projets concrets auprès d’acteurs majeurs des secteurs de la mode et de l’ameublement
  • Monter en compétences sur des sujets clés
  • Rejoindre une équipe jeune et dynamique et nous rejoindre lors de nos fameux Ap’Waro et War’éminaires réguliers
  • Travailler dans un incubateur avec plus de 100 startups de tous les horizons et tous les niveaux de maturité
  • Profiter d’un accès à une table de ping-pong et une salle de sport 24h/7j
  • Horaires de travail flexibles
  • Ouvert au télétravail total
  • Télétravail de n’importe où
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Data engineer

SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST PO...
Emplacement
Emplacement
France , Paris 01
Salaire
Salaire:
50000.00 - 65000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) de la formation qui va bien
  • Surdoué(e) ou doté(e) d’une expérience de 6 ans minimum en ingénierie de la donnée ou en développement data
  • Expert(e) en Python, Hadoop cloudera
  • Habile avec les outils Spark, Shell, Impala, Hive, VBA
  • Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot
  • Autonome : un guide du Routard te suffira
  • Esprit de synthèse : tu sais aller à l’essentiel
  • Capacité d’adaptation : tu es un vrai caméléon
  • Sens de la communication : les mots n’ont pas de secret pour toi
  • Force de proposition : tu es l’Aladdin de l’informatique
Responsabilités
Responsabilités
  • Les pipelines de données, tu développeras
  • La qualité, la fiabilité et la sécurité des données, tu garantiras
  • L’intégration et la transformation des données, tu automatiseras
  • Les architectures data (batch & temps réel), tu concevras
  • La scalabilité et la performance des traitements, tu optimiseras
  • Les outils de monitoring et de gestion des flux, tu mettras en place
  • Ton équipe projet, tu accompagneras
  • Aux rituels agiles et instances data, tu participeras
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Vos missions : Vous êtes le garant de la 'colonne vertébrale' de nos données. Vo...
Emplacement
Emplacement
France , Morlaix
Salaire
Salaire:
40000.00 - 50000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 en informatique (Data Engineering, Big Data)
  • 5 ans d'expérience minimum sur un poste similaire
  • Expertise sur les outils d'ingestion et de transformation (Apache Hop, Nifi, AWS Glue, Spark)
  • Solide expérience en modélisation de données (SQL avancé, modélisation en étoile) pour le décisionnel et la Data Science
  • Bonne maîtrise de l'écosystème AWS (S3, Lambda, Redshift ou Athena)
  • Maîtrise impérative de Python et SQL
  • Capacité à dialoguer aussi bien avec les développeurs qu'avec les Data Scientists
  • Anglais courant écrit (documentation technique)
Responsabilités
Responsabilités
  • Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT) pour collecter la donnée depuis les sources applicatives hétérogènes
  • Assurer l'orchestration et la supervision des flux pour garantir la disponibilité de la donnée
  • Automatiser l'ingestion pour réduire les interventions manuelles et fiabiliser les traitements
  • Modéliser l'entrepôt de données (Data Warehouse) pour garantir son exploitabilité par les métiers
  • Préparer et transformer les données pour les rendre 'consommables' par les équipes Data Science
  • Optimiser les performances de stockage et de requêtage
  • Garantir l'intégrité des données (Data Quality) par la mise en place de tests automatisés
  • Documenter les flux et maintenir le dictionnaire de données à jour
  • Gérer le cycle de vie de la donnée (rétention, archivage) conformément au RGPD
  • Collaboration avec les équipes applicatives
Ce que nous offrons
Ce que nous offrons
  • Une équipe dynamique au sein d'un environnement en transformation
  • Un parcours d'intégration sur mesure
  • Une soirée d'intégration au siège à Morlaix organisée une fois par an avec tous les nouveaux collaborateurs du groupe
  • 6 semaines de congés + RTT
  • Carte Swile (tickets restaurant)
  • 2 jours de télétravail après une phase d'intégration
  • Accès aux avantages du CSE du Télégramme
  • Temps plein
Lire la suite
Arrow Right