CrawlJobs Logo

Data Engineer - Intégration

vo2-group.com Logo

VO2 Group

Location Icon

Emplacement:
France , Paris

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Tu cherches à donner du sens à ton talent et à avoir un impact positif sur le monde ? Née en 2016, padoa c’est 300 collaborateurs passionnés autour d’un logiciel et une offre de services conçus pour moderniser les services de santé au travail. Sur notre logiciel SaaS, nous gérons les dossiers médicaux de 8 millions de salariés en France. Avec une nouvelle levée de fonds de 80M€ en 2022, nous sommes prêts à réaliser notre mission : Faire du monde du travail un univers de prévention afin d’améliorer la santé de millions de personnes ! Pour ce faire, nous proposons une solution technologique innovante : - Une application de pré-visite et des objets connectés : pour simplifier l’expérience de visite avant la rencontre avec le professionnel de santé. - Une plateforme web repensée : pour que tous les acteurs de la santé au travail puissent gagner du temps et améliorer le suivi des salariés. - Une plateforme d’analyse de données : l’ensemble des actifs français sont vus en visite médicale tous les 2 à 5 ans ; exploiter ces données est une occasion formidable pour repenser la prévention et le bien-être au travail. Grâce à nos équipes et à notre positionnement premium, nous sommes devenus leader sur le marché français. Nous recrutons régulièrement les meilleurs talents pour concevoir, améliorer, développer, promouvoir et déployer padoa. Le projet te plait ? Rejoins l’aventure ! Tu rejoindras l’équipe Intégration, composée d’un peu plus d’un 20aine de Data Engineers. Cette équipe assure la reprise complète et structurée des données des anciens logiciels métier de nos clients vers les solutions padoa, dans le cadre des déploiements de nos nouveaux clients. L’équipe s’assure de comprendre les besoins en termes de données de différents corps de métiers (professionnels de santé, ingéniers de prévention, gestionnaires de facturation ...).

Responsabilités:

  • Tu participeras à l’analyse de l’état et de la structuration de la donnée de différents métiers dans les anciennes bases de sdonnées des clients, ainsi qu’à la reprise de ces données
  • Tu participeras aux challenges techniques d’amélioration de la codebase (perf, orchestration, intégration Azure etc.)
  • Tu développeras un code clair, maintenable et robuste
  • Tu maîtriseras la stack technologique padoa des Data Engineers : PostGreSQL, Python et Airflow
  • Tu participeras à des chantiers d’industrialisation de nos process, en fonction des besoins de l’équipe

Exigences:

  • Tu es dans une école d’ingénieur, informatique ou en master scientifique (de préférence en informatique) et tu cherches un stage de fin d’études ou une césure de minimum 5 mois
  • Tu es passionné par le développement informatique et l’analyse de données
  • Tu maîtrises les technologies cœur du Data Engineering (SQL, Python) et optionnellement certaines de nos autres technos
Ce que nous offrons:
  • Un positionnement premium avec une accompagnement reconnu et apprécié par nos clients
  • Une organisation flexible : 2 jours de télétravail flexibles par semaine
  • Un cadre de travail agréable : des locaux bien desservis et spacieux dans le 17ème avec du matériel de qualité
  • Une prise en charge de ton transport (à 50%) mais aussi vélo
  • Un super onboarding : sur padoa et ses équipes puis sur les spécificités de ton métier
  • Une évolution professionnelle : une structure dynamique qui valorise l’initiative et l’engagement à tous niveaux de séniorité, expert comme manager
  • Une vie d'entreprise bien remplie dans un cadre convivial : réunions all staff suivies d’une soirée, séminaire d’entreprise, budget team building, activités thématiques et un arbre de Noël
  • De quoi bien manger : une carte Swile (10€/jour pris en charge à 59%)
  • Café, thé, céréales, fruits en libre accès
  • Une politique handicap avec une charte d’entreprise et des actions concrètes
  • Un CSE dynamique qui propose notamment un abonnement HappyPal, des tarifs de groupe sur des évènements extérieurs

Informations supplémentaires:

Offre publiée:
19 mars 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer - Intégration

Data Engineer

Stage de Data Engineer. Participation aux étapes d'un projet (conception, réalis...
Emplacement
Emplacement
France , Toulouse
Salaire
Salaire:
Non fourni
beamy.io Logo
Beamy
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 (école d’Ingénieurs ou Université)
  • Sensibilité aux sujets liés à la Data
  • Connaissances générales autour de la Data
  • Connaissances des environnements techniques ou spécialisation sur l’une des technologies présentées
  • Rigueur
  • Adaptabilité
  • Proactivité
  • Collaboration
  • Analyse
Responsabilités
Responsabilités
  • Conception détaillée
  • Réalisation, développements
  • Tests unitaires et intégration
  • Mise à jour de la documentation technique
  • Application des normes qualité
  • Étude, conception et développement d’une solution industrielle ou innovante visant à développer nos offres de services autour des principales solutions Data du marché (Data Intégration, Data management, Data Visualisation, Cloud, Big Data, Analytics)
Ce que nous offrons
Ce que nous offrons
  • Projets d'envergure en lien direct avec ta formation et ton développement professionnel
  • Suivi régulier avec ton tuteur
  • Prise en charge jusqu'à 100% des transports en commun
  • Tickets restaurant
  • Moments de convivialité
  • Possibilité de poursuivre en CDI
  • Entre 2-3 jours de télétravail
  • Plan de développement professionnel
  • Remboursement au delà des 50%
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Data Engineer

Vos missions : Vous êtes le garant de la 'colonne vertébrale' de nos données. Vo...
Emplacement
Emplacement
France , Morlaix
Salaire
Salaire:
40000.00 - 50000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 en informatique (Data Engineering, Big Data)
  • 5 ans d'expérience minimum sur un poste similaire
  • Expertise sur les outils d'ingestion et de transformation (Apache Hop, Nifi, AWS Glue, Spark)
  • Solide expérience en modélisation de données (SQL avancé, modélisation en étoile) pour le décisionnel et la Data Science
  • Bonne maîtrise de l'écosystème AWS (S3, Lambda, Redshift ou Athena)
  • Maîtrise impérative de Python et SQL
  • Capacité à dialoguer aussi bien avec les développeurs qu'avec les Data Scientists
  • Anglais courant écrit (documentation technique)
Responsabilités
Responsabilités
  • Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT) pour collecter la donnée depuis les sources applicatives hétérogènes
  • Assurer l'orchestration et la supervision des flux pour garantir la disponibilité de la donnée
  • Automatiser l'ingestion pour réduire les interventions manuelles et fiabiliser les traitements
  • Modéliser l'entrepôt de données (Data Warehouse) pour garantir son exploitabilité par les métiers
  • Préparer et transformer les données pour les rendre 'consommables' par les équipes Data Science
  • Optimiser les performances de stockage et de requêtage
  • Garantir l'intégrité des données (Data Quality) par la mise en place de tests automatisés
  • Documenter les flux et maintenir le dictionnaire de données à jour
  • Gérer le cycle de vie de la donnée (rétention, archivage) conformément au RGPD
  • Collaboration avec les équipes applicatives
Ce que nous offrons
Ce que nous offrons
  • Une équipe dynamique au sein d'un environnement en transformation
  • Un parcours d'intégration sur mesure
  • Une soirée d'intégration au siège à Morlaix organisée une fois par an avec tous les nouveaux collaborateurs du groupe
  • 6 semaines de congés + RTT
  • Carte Swile (tickets restaurant)
  • 2 jours de télétravail après une phase d'intégration
  • Accès aux avantages du CSE du Télégramme
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior - AWS

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Solide expérience sur AWS Data et l’environnement Snowflake
  • Habitué aux projets industrialisés à forte volumétrie
  • Maitrise de l’anglais indispensable
Responsabilités
Responsabilités
  • Renforcer les capacités Cloud Data de l’agence
  • Accompagner les projets de Data Gouvernance et de Data Platform sur la modernisation des architectures et pipelines AWS intégrés à Snowflake
  • Conception AWS Data: Concevoir des pipelines AWS avec Glue, Lambda, Step Functions, S3
  • Industrialiser l’ingestion vers Snowflake (Snowpipe, Streams, Tasks)
  • Implémenter les transformations via Glue/Spark ou Python
  • Plateforme et gouvernance: Participer à la structuration de la Data Platform AWS + Snowflake
  • Contribuer aux chantiers MDM (Semarchy) et Data Gouvernance
  • Définir les bonnes pratiques d’architecture et industrialisation Cloud
  • Performance, sécurité, observabilité: Optimiser stockage, coûts et performance des traitements AWS
  • Déployer les politiques IAM, encryption, secrets management
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples: plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Senior Data Engineer

Nous recherchons un(e) professionnel(le) expérimenté(e) en data engineering, dis...
Emplacement
Emplacement
Morocco , Rabat
Salaire
Salaire:
Non fourni
cyclad.pl Logo
Cyclad Sp. z o.o.
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Plus de 5 ans d’expérience en data engineering ou domaine connexe, avec une spécialisation sur Azure
  • Maîtrise de langages de programmation tels que Python, C# ou SQL
  • Expérience pratique des services Azure : Azure Data Factory, Azure Synapse Analytics, Azure Databricks
  • Excellente connaissance des architectures Data Lake et des solutions de stockage Azure
  • Connaissance des pratiques de gouvernance des données (qualité, sécurité, anonymisation, masquage)
  • Expérience des pipelines CI/CD pour automatiser les déploiements
  • Maîtrise de Terraform pour la gestion de l’infrastructure as code
  • Connaissance des bases de données relationnelles (ex : Azure SQL Database) et NoSQL (ex : Azure Cosmos DB)
  • Bonne compréhension des techniques de modélisation des données
  • Certification Azure Data Engineer Associate (DP-203)
Responsabilités
Responsabilités
  • Collaborer avec les équipes transverses pour recueillir les besoins et concevoir des solutions data adaptées aux enjeux métiers
  • Développer, tester et maintenir des pipelines et architectures data scalables en utilisant les services Azure, notamment les solutions de Data Lake, afin d’assurer une ingestion, un traitement et un stockage efficaces des données
  • Mettre en place des contrôles de qualité et des mécanismes de gouvernance afin de garantir l’intégrité et la fiabilité des données
  • Concevoir et gérer des architectures de stockage sécurisées, en assurant la conformité aux réglementations sur la protection des données (anonymisation, masquage des données, etc.)
  • Mettre en œuvre des pratiques CI/CD pour automatiser le déploiement des solutions data et garantir une livraison efficace et sans erreur
  • Gérer l’infrastructure as code via des outils tels que Terraform pour provisionner et administrer les ressources Azure de manière standardisée et reproductible
  • Superviser et optimiser les workflows data en termes de performance et d’efficacité
  • Documenter les processus data et maintenir les dictionnaires de données pour assurer la transparence et le partage de connaissances
  • Assurer une veille technologique continue sur les innovations Azure et les tendances du marché
Lire la suite
Arrow Right