CrawlJobs Logo

Senior Data Engineer

cyclad.pl Logo

Cyclad Sp. z o.o.

Location Icon

Emplacement:
Morocco , Rabat

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Nous recherchons un(e) professionnel(le) expérimenté(e) en data engineering, disposant d’une solide expertise sur les technologies Azure et d’une forte capacité à transformer les données en insights actionnables.

Responsabilités:

  • Collaborer avec les équipes transverses pour recueillir les besoins et concevoir des solutions data adaptées aux enjeux métiers
  • Développer, tester et maintenir des pipelines et architectures data scalables en utilisant les services Azure, notamment les solutions de Data Lake, afin d’assurer une ingestion, un traitement et un stockage efficaces des données
  • Mettre en place des contrôles de qualité et des mécanismes de gouvernance afin de garantir l’intégrité et la fiabilité des données
  • Concevoir et gérer des architectures de stockage sécurisées, en assurant la conformité aux réglementations sur la protection des données (anonymisation, masquage des données, etc.)
  • Mettre en œuvre des pratiques CI/CD pour automatiser le déploiement des solutions data et garantir une livraison efficace et sans erreur
  • Gérer l’infrastructure as code via des outils tels que Terraform pour provisionner et administrer les ressources Azure de manière standardisée et reproductible
  • Superviser et optimiser les workflows data en termes de performance et d’efficacité
  • Documenter les processus data et maintenir les dictionnaires de données pour assurer la transparence et le partage de connaissances
  • Assurer une veille technologique continue sur les innovations Azure et les tendances du marché

Exigences:

  • Plus de 5 ans d’expérience en data engineering ou domaine connexe, avec une spécialisation sur Azure
  • Maîtrise de langages de programmation tels que Python, C# ou SQL
  • Expérience pratique des services Azure : Azure Data Factory, Azure Synapse Analytics, Azure Databricks
  • Excellente connaissance des architectures Data Lake et des solutions de stockage Azure
  • Connaissance des pratiques de gouvernance des données (qualité, sécurité, anonymisation, masquage)
  • Expérience des pipelines CI/CD pour automatiser les déploiements
  • Maîtrise de Terraform pour la gestion de l’infrastructure as code
  • Connaissance des bases de données relationnelles (ex : Azure SQL Database) et NoSQL (ex : Azure Cosmos DB)
  • Bonne compréhension des techniques de modélisation des données
  • Certification Azure Data Engineer Associate (DP-203)
  • Excellentes capacités de collaboration avec les équipes Analytics, Data Science et IT
  • Excellentes compétences en communication pour vulgariser des concepts techniques complexes auprès de profils non techniques
  • Esprit analytique et capacité à résoudre des problématiques complexes
  • Adaptabilité dans un environnement dynamique avec des priorités évolutives
  • Sens du détail et engagement fort envers la qualité des données

Souhaitable:

  • Expérience avec Azure Machine Learning et Azure Stream Analytics
  • Connaissance d’outils de data visualisation (ex : Power BI)
  • Familiarité avec les technologies Big Data telles qu’Apache Spark sur Azure
  • Compréhension des exigences réglementaires et des frameworks de sécurité dans les environnements Azure
  • Certification Databricks Data Engineer Associate
  • Certification Azure Solutions Architect

Informations supplémentaires:

Offre publiée:
04 mars 2026

Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Senior Data Engineer

Engineering Manager

Nous recherchons pour l’un de nos clients, acteur innovant de la legaltech, un E...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
65000.00 - 90000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Première expérience réussie en management d'équipe software ou data
  • Parcours solide en tant que senior software engineer (développement web, backend, data ou machine learning)
  • Background data (Data Engineer et/ou Machine Learning Engineer) indispensable
  • Réel intérêt pour l'humain, la bienveillance et le leadership
  • Capacité à fédérer, transmettre connaissances et faire progresser les équipes
  • À l'aise pour accompagner techniquement les collaborateurs
  • Souhaite rester hands-on sur le code
  • Curiosité et envie de monter en compétence sur des contenus juridiques complexes
  • Minimum 3 ans d'expérience
Responsabilités
Responsabilités
  • Manager et animer une équipe pluridisciplinaire (software engineers, data engineers, machine learning engineers)
  • Accompagner la performance collective et individuelle
  • Développer les soft skills (communication, leadership)
  • Soutenir l'évolution de carrière des collaborateurs
  • Garantir le bon pilotage des projets de la squad
  • Travailler en étroite collaboration avec les autres Engineering Managers
  • Challenger les choix techniques
  • Accompagner la montée en compétences techniques
  • Lever les blocages complexes
  • Développer une compréhension fine des enjeux métiers
Ce que nous offrons
Ce que nous offrons
  • Politique de télétravail flexible (2 jours de présence au bureau par semaine)
  • Vacances flexibles et illimitées
  • Budget annuel de formation de 750€ en usage libre
  • Formations en équipe et pour toute l'entreprise régulièrement
  • Évènements collectifs réguliers
  • Forfait mobilité durable à hauteur de 66 euros par mois
  • Abonnement Gymlib pour les activités sportives et bien-être
  • Carte Swile pour tickets restaurants
  • Accès gratuit à la plateforme d'accompagnement à la santé mentale Moka.care
  • Centaines de réductions et avantages négociés grâce au CSE
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Databricks Senior

Nous sommes à la recherche d’un Big Data Engineer Databricks Sénior qui sera en ...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Issu(e) d’une formation supérieure (école d’ingénieur, master,…)
  • Au moins 4 années d’expérience dans le domaine du Big Data (et particulièrement sur le framework Spark)
  • Au moins 6 années d’expérience dans le développement logiciel
  • Maîtrise du développement logiciel (Scala, Python …)
  • Solides expériences dans la mise en place de pipelines de données
  • Maîtrise du Framework Spark (idéalement sur Databricks) et son optimisation
  • Maîtrise des bases de données SQL et le langage SQL
  • Expérience sur les méthodes de stockage : HDFS, S3,…
  • Bonnes connaissances en devOps : Jenkins, Gitlab, Maven, …
  • Connaissance de l’Agilité
Responsabilités
Responsabilités
  • Manager des Big Data Engineer et Cloud Engineer
  • Coacher techniquement les membres de l’équipe : solution et code review sur site, recommandation sur les formations à suivre, certifications à réaliser, …
  • Analyse des besoins techniques métiers, définition de l’architecture solution et logiciel, référent technique, développement et optimisation, code review, maintenir les pratiques Devops “You build IT, You run IT”, support à recette et mise en production, documentation, et parfois assumer le rôle de Scrum Master,…
  • Benchmark de solutions et conseil auprès de notre client sur les solutions technologiques à adopter, en lien avec leurs besoins
  • Partage de connaissances et formations interne
Ce que nous offrons
Ce que nous offrons
  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications) grâce à nos partenariats nous accordant une position de partenaire privilégié, et management de proximité par des experts
  • Locaux modernes en centre-ville
  • Télétravail jusqu’à 5 jours selon les missions, prime d’équipement de 100€
  • Mobilité en France et à l’étranger
  • Tickets restaurant, prime vacances, 50% transport (abonnement transport public), mutuelle
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Actionnariat salarié
  • Prime de cooptations
  • RTT
  • Temps plein
Lire la suite
Arrow Right

Data engineer Microsoft

Intégré à l'équipe de Sébastien qui pilote l'activité Data chez Expertime (30 pe...
Emplacement
Emplacement
France , Viroflay
Salaire
Salaire:
55000.00 - 70000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé d'une école d'ingénieur
  • Expérience de plus de 8 ans en environnement informatique sur un poste senior en environnement Data et Microsoft (Team Lead, Architecte ou Consultant Senior)
  • Maîtrise des architectures Data Onpremise, Cloud, de SQL, d'un outil ETL (Azure Data Factory ou autres) et de Data Visualisation
  • Maîtrise des problématiques de sécurité, Infrastructure et réseau dans le Cloud
  • Conception, modélisation et optimisation de base de données
  • Connaissance de l'environnement Azure, MSBI, SQL Server ou de notions d'IA (Python, R ou Machine Learning)
  • Aimer ne pas rester sur ses acquis et toujours apprendre
  • Curiosité et veille technologique quotidienne
  • Ouvert aux échanges, capable de comprendre un besoin métier et le traduire en besoin technique
  • Sens de la relation client
Responsabilités
Responsabilités
  • Analyser et qualifier les besoins et les problématiques « métier » de nos clients
  • Participer à la définition et la mise en oeuvre des solutions Data adaptées aux contextes des projets
  • Collaborer avec les équipes Métiers dans leurs travaux d'identification et de documentation des données
  • Collaborer avec les Consultants et des Ingénieurs spécialistes de la data sur les projets et oeuvrer à la qualité de leurs réalisations et des livrables
  • Collaborer sur tous les domaines d'activité data : BI et Analytics, Big Data, Data Science et IA
  • Collaborer en transverse avec les autres expertises (UX/UI, architectes logiciels et techniques, experts cloud et DevOps) afin de concevoir et délivrer les solutions les plus adaptées et performantes
  • Travailler dans un contexte agile et porter des approches novatrices
  • Participer à la montée en compétences des collaborateurs et à l'interface entre les équipes métiers (internes et externes)
Ce que nous offrons
Ce que nous offrons
  • Rémunération fixe + variable individuel et collectif
  • Prime de participation
  • Mutuelle prise en charge à 100% par l'entreprise, couvrant intégralement le collaborateur et sa famille
  • 3 jours de télétravail possible par semaine (rythme hybride et personnalisable)
  • Temps plein
Lire la suite
Arrow Right

Senior data engineer

L'entreprise : Acteur majeur du secteur du logiciel en mode SaaS, elle accompagn...
Emplacement
Emplacement
France , Nantes
Salaire
Salaire:
42000.00 - 50000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 3 ans d'expérience
  • Expériences en conception et maintenance de data warehouse
  • Expériences sur Snowflake, DBT ou AWS Lambda
  • Maîtrise des bonnes pratiques de cybersécurité (OWASP Top 10, recommandations ANSSI) et des réglementations européennes (RGPD, LCB-FT, PCI-DSS)
  • Expériences en développement (50 à 75% du temps)
  • Rigueur dans la documentation, la maintenabilité et le reporting
  • Capacité à piloter des projets complexes, de la planification à la livraison, en collaboration avec des équipes multiculturelles
  • Aisance en anglais (langue de travail)
  • Autonomie
  • Capacité d'adaptation
Responsabilités
Responsabilités
  • Garantir la fiabilité et la performance des flux de données entre les outils métiers (HubSpot, Jira, Odoo, Google Workspace, etc.): Maintenance proactive (niveau 3), résolution d'incidents, réduction de la dette technique
  • Optimisation des coûts et de la scalabilité des infrastructures data
  • Piloter des projets d'évolution des pipelines de données: De la collecte des besoins à la livraison (spécifications, développement, tests, revue de code, documentation, déploiement)
  • Accompagnement des équipes métiers dans l'adoption des nouvelles solutions
  • Conduire la refonte stratégique du data warehouse (Snowflake + DBT): Finalisation des travaux initiés pour l'équipe Finance, puis extension à l'ensemble des besoins métiers
  • Conception d'une architecture robuste, scalable et conforme aux enjeux réglementaires
Ce que nous offrons
Ce que nous offrons
  • Travailler dans le secteur de la Tech for Good avec des organisations qui ont un impact positif sur le monde
  • Avoir un équilibre pro/perso grâce à la politique de télétravail flexible
  • Environnement international et multiculturel
  • Avoir des responsabilités et gérer votre activité de manière autonome
  • 3 j/an accordés dans le cadre du mécénat de compétences via la plateforme Komeet et participation de la société au Giving Tuesday
  • Des tickets restaurant pris en charge à 60%
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer senior - Services Financiers

Au sein d’une Data Factory, vous êtes pleinement impliqué(e) dans toutes les pha...
Emplacement
Emplacement
France , Villeneuve-d'Ascq
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d’une formation supérieure en informatique type Bac + 5 (école ingénieur, université ou équivalent)
  • Expérience significative en data engineer
  • Maîtrise des technologies de bases de données Relationnelles et NoSQL
  • Maîtrise d’au moins un outil d’ETL/ELT (Stambia, Informatica, Datastage, etc.)
  • Maîtrise des technologies de traitement distribué de données (Spark, Hadoop)
  • Maîtrise d’au moins un framework de streaming de données (Kafka, RabbitMQ, etc.)
  • Maîtrise de chaines CI/CD et de des bonnes pratiques de DataOps
  • Maîtrise de solution de Virutualisation de données (Denodo, Dremio, etc.)
  • Maîtrise d’au moins un environnement cloud public ou privé (Azure, AWS, Outscale, etc.)
  • Compétences en autonomie, adaptabilité et communication
Responsabilités
Responsabilités
  • Travailler avec le client pour évaluer, concevoir, déployer, améliorer et maintenir les pipelines de données
  • S'assurer que les pipelines de données créés sont résilients, sécurisés et accessibles
  • Définir le modèle opérationnel pour monitorer et supporter les pipelines de données
  • Fournir une expertise à nos clients sur leurs données pour assurer leur optimisation et leur sécurité par rapport à leurs besoins
  • Apporter un savoir en gestion de la qualité et la gouvernance de la donnée pour assurer le suivi de la conformité à la gouvernance de la donnée
  • Faire de la veille technologique dans le domaine afin d’enrichir les roadmaps technologiques et fournir des solutions modernes à nos clients
Ce que nous offrons
Ce que nous offrons
  • Un accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Un package avantages intéressant : une mutuelle, un CSE, des titres restaurants, un accord d’intéressement, des primes vacances et cooptation
  • Des opportunités de carrières multiples : plus de 30 familles de métiers, autant de passerelles à imaginer ensemble
  • Plusieurs centaines de formations accessibles en toute autonomie avec Sopra Steria Academy
  • La possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • L'opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore…)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right