CrawlJobs Logo

Senior Cloud Data Engineer

smile.eu Logo

Smile Group

Location Icon

Emplacement:
Switzerland , Lausanne

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Synotis, entreprise du groupe SMILE, spécialisée dans la mise en œuvre de projets Data, cherche aujourd’hui un(e) Ingénieur Talend pour venir compléter ses équipes. Nos offres sont regroupées au sein de deux Business Line, le conseil et le Data Management. Nous accompagnons nos clients dans la mise en œuvre de leur stratégie Data, de la gouvernance de celles-ci à la mise en œuvre d’architectures adaptées, efficientes et scalables. Un plus ? Nous sommes labellisés « Happy at Work » ! Dans cette dynamique importante de recrutements et de nouveaux projets, nous recherchons un(e) Senior Cloud Data Engineer pour nous accompagner dans cette aventure.

Responsabilités:

  • Conception & développement de pipelines de données: Construire des pipelines d’ingestion, transformation et orchestration (batch & streaming)
  • Développer sur Microsoft Fabric (Data Factory, Lakehouse, Warehouse, OneLake)
  • Développer sur Databricks (pyspark, medallion architecture, Delta Live Tables)
  • Mettre en œuvre des flux ETL/ELT via Talend ou autres solutions (ADF, NiFi etc…)
  • Architecture Data & Cloud: Concevoir des architectures data cloud modulaires, sécurisées et scalables
  • Définir les modèles de données (conceptuels, logiques, physiques)
  • Participer au choix des technologies et à la structuration des plateformes
  • Participation à l’élaboration de la CI/CD,du monitoring, de la qualité et de la sécurité des plateformes de données
  • Proposer des patterns d’architecture sur Azure: Lakehouse, Medallion, Real-time ingestion, Multi-tenant / multi-projets, Best practices sur OneLake / Fabric / Databricks
  • Gouvernance & qualité des données: Participer à la mise en place de la Data Quality (DQ), Data Observability, lineage, catalogues
  • Contribuer à la gouvernance (sécurité, RLS/OLS, droits, conformité)
  • Accompagnement & expertise: Challenger les besoins métier et proposer des solutions adaptées
  • Accompagner les équipes et les clients dans la montée en compétence
  • Participer aux revues techniques, POCs, cadrages d’architecture

Exigences:

  • 5 à 10+ années d’expérience en Data Engineering
  • Expérience significative sur Azure
  • Solide expérience sur Fabric OU Databricks (idéalement les deux)
  • Expérience en conception d’architectures cloud data
  • Réalisation obligatoire de projets autours des technologies citée ci-dessus
  • Connaissance de Power BI pour exposer les données
  • Langages: Python, PySpark
  • SQL avancé
  • Notions de PowerShell / Bash appréciées
  • Architecture: Patterns de Data Engineering, Lakehouse, Real-time (Event Hub, Kafka, IoT Hub), CI/CD (Azure DevOps, GitHub Actions), Observability, quality, monitoring
  • Soft skills: Forte autonomie et proactivité, Capacité à challenger, Communication claire, vulgarisation, Leadership technique naturel, Esprit collaboratif et orienté solution

Souhaitable:

  • Certifications Azure / Databricks / Fabric appréciées
  • Expérience en IoT, temps réel ou streaming
  • Expérience en multi-tenant data platforms
  • Connaissance de la méthodologie DataOps
Ce que nous offrons:
  • Équilibre vie pro et vie perso grâce au télétravail possible
  • Formations "sur mesure" avec la possibilité de passer des certifications
  • Développer votre carrière vers de l’expertise ou de la gestion de projet
  • Atmosphère familiale

Informations supplémentaires:

Offre publiée:
20 mars 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Senior Cloud Data Engineer

Nouveau

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Databricks Senior

Nous sommes à la recherche d’un Big Data Engineer Databricks Sénior qui sera en ...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Issu(e) d’une formation supérieure (école d’ingénieur, master,…)
  • Au moins 4 années d’expérience dans le domaine du Big Data (et particulièrement sur le framework Spark)
  • Au moins 6 années d’expérience dans le développement logiciel
  • Maîtrise du développement logiciel (Scala, Python …)
  • Solides expériences dans la mise en place de pipelines de données
  • Maîtrise du Framework Spark (idéalement sur Databricks) et son optimisation
  • Maîtrise des bases de données SQL et le langage SQL
  • Expérience sur les méthodes de stockage : HDFS, S3,…
  • Bonnes connaissances en devOps : Jenkins, Gitlab, Maven, …
  • Connaissance de l’Agilité
Responsabilités
Responsabilités
  • Manager des Big Data Engineer et Cloud Engineer
  • Coacher techniquement les membres de l’équipe : solution et code review sur site, recommandation sur les formations à suivre, certifications à réaliser, …
  • Analyse des besoins techniques métiers, définition de l’architecture solution et logiciel, référent technique, développement et optimisation, code review, maintenir les pratiques Devops “You build IT, You run IT”, support à recette et mise en production, documentation, et parfois assumer le rôle de Scrum Master,…
  • Benchmark de solutions et conseil auprès de notre client sur les solutions technologiques à adopter, en lien avec leurs besoins
  • Partage de connaissances et formations interne
Ce que nous offrons
Ce que nous offrons
  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications) grâce à nos partenariats nous accordant une position de partenaire privilégié, et management de proximité par des experts
  • Locaux modernes en centre-ville
  • Télétravail jusqu’à 5 jours selon les missions, prime d’équipement de 100€
  • Mobilité en France et à l’étranger
  • Tickets restaurant, prime vacances, 50% transport (abonnement transport public), mutuelle
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Actionnariat salarié
  • Prime de cooptations
  • RTT
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior - AWS

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Solide expérience sur AWS Data et l’environnement Snowflake
  • Habitué aux projets industrialisés à forte volumétrie
  • Maitrise de l’anglais indispensable
Responsabilités
Responsabilités
  • Renforcer les capacités Cloud Data de l’agence
  • Accompagner les projets de Data Gouvernance et de Data Platform sur la modernisation des architectures et pipelines AWS intégrés à Snowflake
  • Conception AWS Data: Concevoir des pipelines AWS avec Glue, Lambda, Step Functions, S3
  • Industrialiser l’ingestion vers Snowflake (Snowpipe, Streams, Tasks)
  • Implémenter les transformations via Glue/Spark ou Python
  • Plateforme et gouvernance: Participer à la structuration de la Data Platform AWS + Snowflake
  • Contribuer aux chantiers MDM (Semarchy) et Data Gouvernance
  • Définir les bonnes pratiques d’architecture et industrialisation Cloud
  • Performance, sécurité, observabilité: Optimiser stockage, coûts et performance des traitements AWS
  • Déployer les politiques IAM, encryption, secrets management
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples: plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

BI Engineer senior - Services Financiers

Au sein d’une Data Factory, vous êtes pleinement impliqué(e) dans toutes les pha...
Emplacement
Emplacement
France , Villeneuve-d'Ascq, Lille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d’une formation supérieure en informatique type Bac + 5 (école ingénieur, université ou équivalent)
  • Expérience significative en data engineer
  • Maîtrise des technologies de bases de données Relationnelles et NoSQL
  • Maîtrise d’au moins un outil d’ETL/ELT (Stambia, Informatica, Datastage, etc.)
  • Maîtrise des technologies de traitement distribué de données (Spark, Hadoop)
  • Maîtrise d’au moins un framework de streaming de données (Kafka, RabbitMQ, etc.)
  • Maîtrise de chaines CI/CD et de des bonnes pratiques de DataOps
  • Maîtrise de solution de Virtualisation de données (Denodo, Dremio, etc.)
  • Maîtrise d’au moins un environnement cloud public ou privé (Azure, AWS, Outscale, etc.)
  • Solides compétences en matière d'autonomie, d'adaptabilité et de communication
Responsabilités
Responsabilités
  • Travailler avec le client pour évaluer, concevoir, déployer, améliorer et maintenir les pipelines de données
  • S'assurer que les pipelines de données créés sont résilients, sécurisés et accessibles
  • Définir le modèle opérationnel pour monitorer et supporter les pipelines de données
  • Fournir une expertise à nos clients sur leurs données pour assurer leur optimisation et leur sécurité par rapport à leurs besoins
  • Apporter un savoir en gestion de la qualité et la gouvernance de la donnée pour assurer le suivi de la conformité à la gouvernance de la donnée
  • Faire de la veille technologique dans le domaine afin d’enrichir les roadmaps technologiques et fournir des solutions modernes à nos clients
Ce que nous offrons
Ce que nous offrons
  • Un accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Un package avantages intéressant : une mutuelle, un CSE, des titres restaurants, un accord d’intéressement, des primes vacances et cooptation
  • Des opportunités de carrières multiples : plus de 30 familles de métiers, autant de passerelles à imaginer ensemble
  • Plusieurs centaines de formations accessibles en toute autonomie avec Sopra Steria Academy
  • L'opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore…)
  • Temps plein
Lire la suite
Arrow Right

Senior Data Developer

Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’in...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right