CrawlJobs Logo

Data Engineer ou Architecte Data

apec.fr Logo

APEC

Location Icon

Emplacement:
France , Saint-Denis

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

50000.00 - 71000.00 EUR / Année
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Dans le cadre de l’évolution d’une plateforme Data stratégique, nous recherchons un Data Engineer ou Architecte Data pour intervenir sur des problématiques d’architecture, d’ingestion et d’optimisation autour de Databricks sur Azure.

Responsabilités:

  • Conception et modélisation des flux de données
  • Choix d’architecture sur Databricks
  • Audit et optimisation de code (Spark / Python)
  • Résolution de problématiques de performance, scalabilité et coûts
  • Mise en place et amélioration des pipelines CI/CD
  • Automatisation des tâches d’exploitation (catalogues, habilitations, provisioning)
  • Mise en place de monitoring (DataDog)
  • Réalisation de POC et veille technologique
  • Contribution à la production des livrables d’architecture (HLD / LLD)
  • Suivi projet en méthodologie Agile

Exigences:

  • Minimum 4 ans d’expérience en Data Engineering ou Architecture Data
  • Très bonne maîtrise de Databricks et Azure
  • Expérience sur plateformes d’ingestion et data lake
  • Capacité à prendre de la hauteur sur l’architecture globale
  • Esprit force de proposition

Souhaitable:

Une expérience R&D ou IA sur Databricks est un plus

Informations supplémentaires:

Offre publiée:
17 février 2026

Type d'emploi:
Temps plein
Type de travail:
Travail sur site
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer ou Architecte Data

Nouveau

Consultant Senior Expert GCP

Rejoignez Sopra Steria Next, le cabinet de conseil en transformation digitale du...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 en informatique, ingénierie ou équivalent
  • 5 à 10+ ans d’expérience en architecture Cloud, Data et/ou Infrastructure
  • Expertise confirmée sur Google Cloud Platform
  • Expérience hybride : conseil, cadrage, architecture, delivery
  • Certification Google Cloud Professional Architect (ou Data Engineer, Network Engineer)
  • Maîtrise des services Data et Platform GCP
  • Connaissances solides en sécurité Cloud
  • Conception de Landing Zones, architectures réseau, IAM, workloads
  • Connaissance de GKE, Cloud Run, Compute Engine, Observabilité
  • Capacité à intervenir sur des phases de cadrage et de stratégie
Responsabilités
Responsabilités
  • Conseil et stratégie Cloud GCP
  • Définir et orienter les stratégies de transformation Cloud
  • Construire des trajectoires cibles adaptées aux enjeux Data et Infrastructure
  • Participer aux phases de cadrage, d’avant-vente et aux travaux structurants
  • Produire des recommandations d’architecture alignées avec les bonnes pratiques Google Cloud
  • Architecture et conception de solutions GCP
  • Concevoir et valider des architectures complètes comprenant les architectures Data (BigQuery, Pub/Sub, Dataflow, Dataproc, IA/ML, Looker), les architectures Infrastructure et plateforme (GKE, Compute Engine, Cloud Run, réseaux, IAM), les modèles de sécurité, résilience, observabilité et optimisation des coûts, les pipelines d’automatisation dans une approche DevSecOps (Terraform, CI/CD, GitOps)
  • Apporter un support technique avancé aux équipes de développement ou d’intégration
  • Delivery et intégration
  • Prendre en charge le design détaillé et la mise en œuvre de solutions Cloud
Ce que nous offrons
Ce que nous offrons
  • Un accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Un package avantages intéressant : une mutuelle, un CSE, des titres restaurants, un accord d’intéressement, des primes vacances et cooptation
  • Des opportunités de carrières multiples : plus de 30 familles de métiers, autant de passerelles à imaginer ensemble
  • La possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • L'opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore…)
  • Temps plein
Lire la suite
Arrow Right

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Consultant Data Engineer Cloud GCP

L’équipe Cloud 4 Data, forte de 70 collaborateurs, joue un rôle clé à la fois da...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d’une école d’Ingénieur ou d’une formation technique niveau Master à Doctorat
  • Au moins 4 années d’expérience sur les sujets Data avec des réussites notables sur la technologie GCP
  • Certification GCP (Professional Data Engineer, Professional Cloud Architect) serait un atout
  • Connaissances des technologies Data et BI, surtout liés à l’écosystème GCP
  • Maîtrise de l’ingestion, la transformation et la préparation des données en utilisant des langages tels que Scala, Python, Java, SQL
  • Habitué(e) aux environnements Cloud comme AWS, Azure, Google Cloud pour déployer des clusters
  • Familier avec les outils de monitoring (Cloud Monitoring, Cloud Audit Logs, AWS CloudWatch, CloudTrail,) et de gestion des clusters (CloudFormation, Terraform…)
  • Expérience sur des problématiques de gestion des performances, mise en place de bonnes pratiques, conceptions & implémentation de pipelines de données complexes, maîtrise des bases de données SQL et NoSQL
  • Familier avec des systèmes de traitement en temps réel tels que Kinesis, Lambda, MSK, Cloud Pub/Sub, BigQuery, Kafka, Redpanda…
  • Idéalement une première expérience dans la conception d’architectures techniques
Responsabilités
Responsabilités
  • Participer à des ateliers technico-fonctionnel, préconiser des outils, concevoir des solutions et les mettre en œuvre
  • Réaliser des projets décisionnels et optimiser les solutions techniques
  • Savoir auditer des architectures existantes et proposer des améliorations
  • Participer aux phases d’avant-vente et au chiffrage des projets
  • Être Référent(e) sur les bonnes pratiques et les étapes de la mise en place d’un projet cloud
  • Contribuer à l’évolution des équipes internes via le transfert de connaissances, l’animation d’ateliers thématiques grâce à votre veille technologique active
Ce que nous offrons
Ce que nous offrons
  • Prime d’équipement de 100 €
  • Mutuelle prise en charge à hauteur de 80% minimum
  • Titres-restaurant
  • Primes de cooptation de 500 à 4000€
  • Actionnariat salarié
  • Retour de congé maternité possible à 4/5ème sans perte de salaire pendant 6 mois
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Offre de formation complète sur site et à distance, programme de mentoring pour les femmes
  • Mobilité en France et à l’étranger
  • Activité sportive hebdomadaire au sein des locaux encadré par un coach
  • Temps plein
Lire la suite
Arrow Right

Data Engineer DBT/Snowflake

En tant que Data Engineer, vous jouerez un rôle clé dans le développement, l’amé...
Emplacement
Emplacement
Luxembourg , Luxembourg
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme universitaire en Informatique, Systèmes d’Information ou Ingénierie (BAC +5)
  • Parfaite maîtrise du français et de l’anglais
  • Expérience confirmée en ETL et dans les environnements cloud
  • Expérience en Oracle Data Integrator (ODI) est un réel atout
  • Maîtrise de Snowflake, DBT ou technologies similaires fortement appréciée
  • Capacité à lire, comprendre et mettre à jour des modèles de données logiques et physiques
  • Expérience en DevOps, pipelines CI/CD et gestion de versions
  • Très bonne connaissance du SQL et du PL/SQL
  • Connaissance générale des produits bancaires et des processus financiers
Responsabilités
Responsabilités
  • Participer à la définition des solutions cibles autour de produits de données communs, en promouvant une Single Source of Truth
  • Traduire les besoins métiers en solutions concrètes et collaborer avec les data architects, data modelers, data engineers et analystes
  • Maintenir et faire évoluer les solutions existantes tout en construisant les solutions cibles
  • Encadrer, challenger et valider les livrables (flows, documentations, processus…) afin de garantir leur qualité et réutilisabilité
  • Améliorer les pipelines CI/CD et veiller à leur alignement avec les meilleures pratiques de Data Engineering de l’équipe
  • Garantir la qualité des livrables et assurer que les tests automatisés soient mis en place et maintenus
Lire la suite
Arrow Right

Data engineer Microsoft

Intégré à l'équipe de Sébastien qui pilote l'activité Data chez Expertime (30 pe...
Emplacement
Emplacement
France , Viroflay
Salaire
Salaire:
55000.00 - 70000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé d'une école d'ingénieur
  • Expérience de plus de 8 ans en environnement informatique sur un poste senior en environnement Data et Microsoft (Team Lead, Architecte ou Consultant Senior)
  • Maîtrise des architectures Data Onpremise, Cloud, de SQL, d'un outil ETL (Azure Data Factory ou autres) et de Data Visualisation
  • Maîtrise des problématiques de sécurité, Infrastructure et réseau dans le Cloud
  • Conception, modélisation et optimisation de base de données
  • Connaissance de l'environnement Azure, MSBI, SQL Server ou de notions d'IA (Python, R ou Machine Learning)
  • Aimer ne pas rester sur ses acquis et toujours apprendre
  • Curiosité et veille technologique quotidienne
  • Ouvert aux échanges, capable de comprendre un besoin métier et le traduire en besoin technique
  • Sens de la relation client
Responsabilités
Responsabilités
  • Analyser et qualifier les besoins et les problématiques « métier » de nos clients
  • Participer à la définition et la mise en oeuvre des solutions Data adaptées aux contextes des projets
  • Collaborer avec les équipes Métiers dans leurs travaux d'identification et de documentation des données
  • Collaborer avec les Consultants et des Ingénieurs spécialistes de la data sur les projets et oeuvrer à la qualité de leurs réalisations et des livrables
  • Collaborer sur tous les domaines d'activité data : BI et Analytics, Big Data, Data Science et IA
  • Collaborer en transverse avec les autres expertises (UX/UI, architectes logiciels et techniques, experts cloud et DevOps) afin de concevoir et délivrer les solutions les plus adaptées et performantes
  • Travailler dans un contexte agile et porter des approches novatrices
  • Participer à la montée en compétences des collaborateurs et à l'interface entre les équipes métiers (internes et externes)
Ce que nous offrons
Ce que nous offrons
  • Rémunération fixe + variable individuel et collectif
  • Prime de participation
  • Mutuelle prise en charge à 100% par l'entreprise, couvrant intégralement le collaborateur et sa famille
  • 3 jours de télétravail possible par semaine (rythme hybride et personnalisable)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer spécialisé Machine Learning

En tant qu'Ingénieur Machine Learning confirmé, vous jouez un rôle central dans ...
Emplacement
Emplacement
France , Rouen
Salaire
Salaire:
45000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Issu d'une formation supérieure en informatique, data science ou ingénierie logicielle (Bac +5)
  • environ quatre années d'expérience en ingénierie logicielle et en déploiement de modèles de Machine Learning en environnement de production
  • maîtrise de Python et des principales bibliothèques de Machine Learning telles que TensorFlow ou PyTorch
  • expérience confirmée des plateformes data et des environnements cloud, notamment sur GCP, ainsi que des outils d'AutoML et d'orchestration de workflows
  • à l'aise avec le déploiement de services conteneurisés via Docker, Kubernetes ou OpenShift
  • savoir automatiser l'ensemble du cycle de vie d'un modèle grâce aux pratiques MLOps et CI/CD
  • mettre en place des solutions de monitoring et d'observabilité adaptées aux systèmes de Machine Learning
  • solides compétences en Data Engineering, notamment sur les processus ETL/ELT, le SQL avancé et la qualité des données
  • comprendre les fondamentaux du Machine Learning et de l'Intelligence Artificielle, qu'il s'agisse d'apprentissage supervisé ou non supervisé, de deep learning, de modélisation, de réseaux neuronaux ou de modèles de langage
  • capacité de communication
Responsabilités
Responsabilités
  • Concevoir, développer et maintenir des pipelines MLOps complets et automatisés couvrant l'entraînement, la validation, le déploiement et le monitoring des modèles en production
  • collaborer avec les Data Scientists afin d'optimiser les modèles et les jeux de données
  • produire un cadrage technique structuré, accompagné d'une documentation de conception
  • travailler en lien avec les architectes d'entreprise et architectes data afin de concevoir des architectures robustes
  • assurer le packaging des modèles sous forme de conteneurs Docker et orchestrer leur déploiement sur des environnements Kubernetes ou OpenShift
  • mettre en place des mécanismes d'intégration et de déploiement continus, de tests unitaires et fonctionnels
  • garantir la conformité réglementaire applicable aux systèmes d'IA et à la protection des données
  • veiller à la disponibilité, à la performance et à la scalabilité des services déployés
  • développer des dispositifs de supervision permettant de détecter les dérives de données et de modèles
  • mettre en oeuvre des boucles de réentraînement automatisées
  • Temps plein
Lire la suite
Arrow Right