CrawlJobs Logo

Data Engineer Cloud

cyclad.pl Logo

Cyclad Sp. z o.o.

Location Icon

Emplacement:
France , Marseille

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Nous recherchons deux profils Data Engineer Cloud (Confirmé et Senior) pour intervenir sur des projets data et cloud.

Exigences:

  • Experience on data cloud projects
  • Good understanding of data architectures and data flows
  • Ability to work with business and technical teams
  • GCP / AWS / Azure
  • Data Engineering & BI
  • BigQuery, ETL, SQL
  • Python
  • CI/CD & agile environment

Informations supplémentaires:

Offre publiée:
15 mai 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer Cloud

Data Engineer

Stage de Data Engineer. Participation aux étapes d'un projet (conception, réalis...
Emplacement
Emplacement
France , Toulouse
Salaire
Salaire:
Non fourni
beamy.io Logo
Beamy
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 (école d’Ingénieurs ou Université)
  • Sensibilité aux sujets liés à la Data
  • Connaissances générales autour de la Data
  • Connaissances des environnements techniques ou spécialisation sur l’une des technologies présentées
  • Rigueur
  • Adaptabilité
  • Proactivité
  • Collaboration
  • Analyse
Responsabilités
Responsabilités
  • Conception détaillée
  • Réalisation, développements
  • Tests unitaires et intégration
  • Mise à jour de la documentation technique
  • Application des normes qualité
  • Étude, conception et développement d’une solution industrielle ou innovante visant à développer nos offres de services autour des principales solutions Data du marché (Data Intégration, Data management, Data Visualisation, Cloud, Big Data, Analytics)
Ce que nous offrons
Ce que nous offrons
  • Projets d'envergure en lien direct avec ta formation et ton développement professionnel
  • Suivi régulier avec ton tuteur
  • Prise en charge jusqu'à 100% des transports en commun
  • Tickets restaurant
  • Moments de convivialité
  • Possibilité de poursuivre en CDI
  • Entre 2-3 jours de télétravail
  • Plan de développement professionnel
  • Remboursement au delà des 50%
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Cloud Automation & Data Engineer

Pour le compte d’un grand groupe industriel international nous recherchons un pr...
Emplacement
Emplacement
France , Aix-en-Provence
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d'un Bac+5 et délivré(e) d'une école d'Ingénieur(e) ou équivalent
  • Au moins 5 ans d'expérience professionnelle dans une fonction similaire
  • Expertise AWS (infrastructure et services data)
  • Infrastructure as Code : Terraform
  • DevSecOps & CI/CD
  • Conteneurisation et orchestration (Docker, Kubernetes)
  • Architectures serverless et microservices
  • Scripting et développement : Python, Bash, SQL
  • Data engineering : ETL/ELT, data modeling, data lifecycle
  • Gouvernance et qualité de la donnée
Responsabilités
Responsabilités
  • Automatiser et fiabiliser les infrastructures cloud et les services data
  • Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps
  • Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes
  • Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering
  • Concevoir et mettre en œuvre d’infrastructures cloud as code (Terraform)
  • Automatiser du provisioning et du cycle de vie des ressources cloud AWS
  • Optimiser des environnements cloud (scalabilité, disponibilité, performance)
  • Automatiser les services data AWS (S3, Glue, Kinesis, etc.)
  • Industrialiser et superviser des pipelines data
  • Mettre en place et améliorer les pipelines CI/CD
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu'à 2 jours par semaine
  • Forfait avantages intéressants : une mutuelle, un CSE, des titres restaurants, un accord d'intérêt, des primes vacances et cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Des centaines de formations pour développer vos compétences et évoluer au sein du Groupe
  • Plateformes de formations en autonomie pour préparer vos certifications et accompagner votre développement personnel
  • Possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • Opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore)
  • Entreprise certifiée Great Place To Work
  • Événements par an organisés afin de nous rassembler et partager des moments de convivialité : afterworks, petits déjeuners, challenges sportifs et e-sportifs, communautés techniques
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Consultant Data Engineer Cloud GCP

L’équipe Cloud 4 Data, forte de 70 collaborateurs, joue un rôle clé à la fois da...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d’une école d’Ingénieur ou d’une formation technique niveau Master à Doctorat
  • Au moins 4 années d’expérience sur les sujets Data avec des réussites notables sur la technologie GCP
  • Certification GCP (Professional Data Engineer, Professional Cloud Architect) serait un atout
  • Connaissances des technologies Data et BI, surtout liés à l’écosystème GCP
  • Maîtrise de l’ingestion, la transformation et la préparation des données en utilisant des langages tels que Scala, Python, Java, SQL
  • Habitué(e) aux environnements Cloud comme AWS, Azure, Google Cloud pour déployer des clusters
  • Familier avec les outils de monitoring (Cloud Monitoring, Cloud Audit Logs, AWS CloudWatch, CloudTrail,) et de gestion des clusters (CloudFormation, Terraform…)
  • Expérience sur des problématiques de gestion des performances, mise en place de bonnes pratiques, conceptions & implémentation de pipelines de données complexes, maîtrise des bases de données SQL et NoSQL
  • Familier avec des systèmes de traitement en temps réel tels que Kinesis, Lambda, MSK, Cloud Pub/Sub, BigQuery, Kafka, Redpanda…
  • Idéalement une première expérience dans la conception d’architectures techniques
Responsabilités
Responsabilités
  • Participer à des ateliers technico-fonctionnel, préconiser des outils, concevoir des solutions et les mettre en œuvre
  • Réaliser des projets décisionnels et optimiser les solutions techniques
  • Savoir auditer des architectures existantes et proposer des améliorations
  • Participer aux phases d’avant-vente et au chiffrage des projets
  • Être Référent(e) sur les bonnes pratiques et les étapes de la mise en place d’un projet cloud
  • Contribuer à l’évolution des équipes internes via le transfert de connaissances, l’animation d’ateliers thématiques grâce à votre veille technologique active
Ce que nous offrons
Ce que nous offrons
  • Prime d’équipement de 100 €
  • Mutuelle prise en charge à hauteur de 80% minimum
  • Titres-restaurant
  • Primes de cooptation de 500 à 4000€
  • Actionnariat salarié
  • Retour de congé maternité possible à 4/5ème sans perte de salaire pendant 6 mois
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Offre de formation complète sur site et à distance, programme de mentoring pour les femmes
  • Mobilité en France et à l’étranger
  • Activité sportive hebdomadaire au sein des locaux encadré par un coach
  • Temps plein
Lire la suite
Arrow Right

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right

Senior Cloud Data Engineer

Synotis, entreprise du groupe SMILE, spécialisée dans la mise en œuvre de projet...
Emplacement
Emplacement
Switzerland , Lausanne
Salaire
Salaire:
Non fourni
smile.eu Logo
Smile Group
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 à 10+ années d’expérience en Data Engineering
  • Expérience significative sur Azure
  • Solide expérience sur Fabric OU Databricks (idéalement les deux)
  • Expérience en conception d’architectures cloud data
  • Réalisation obligatoire de projets autours des technologies citée ci-dessus
  • Connaissance de Power BI pour exposer les données
  • Langages: Python, PySpark
  • SQL avancé
  • Notions de PowerShell / Bash appréciées
  • Architecture: Patterns de Data Engineering, Lakehouse, Real-time (Event Hub, Kafka, IoT Hub), CI/CD (Azure DevOps, GitHub Actions), Observability, quality, monitoring
Responsabilités
Responsabilités
  • Conception & développement de pipelines de données: Construire des pipelines d’ingestion, transformation et orchestration (batch & streaming)
  • Développer sur Microsoft Fabric (Data Factory, Lakehouse, Warehouse, OneLake)
  • Développer sur Databricks (pyspark, medallion architecture, Delta Live Tables)
  • Mettre en œuvre des flux ETL/ELT via Talend ou autres solutions (ADF, NiFi etc…)
  • Architecture Data & Cloud: Concevoir des architectures data cloud modulaires, sécurisées et scalables
  • Définir les modèles de données (conceptuels, logiques, physiques)
  • Participer au choix des technologies et à la structuration des plateformes
  • Participation à l’élaboration de la CI/CD,du monitoring, de la qualité et de la sécurité des plateformes de données
  • Proposer des patterns d’architecture sur Azure: Lakehouse, Medallion, Real-time ingestion, Multi-tenant / multi-projets, Best practices sur OneLake / Fabric / Databricks
  • Gouvernance & qualité des données: Participer à la mise en place de la Data Quality (DQ), Data Observability, lineage, catalogues
Ce que nous offrons
Ce que nous offrons
  • Équilibre vie pro et vie perso grâce au télétravail possible
  • Formations "sur mesure" avec la possibilité de passer des certifications
  • Développer votre carrière vers de l’expertise ou de la gestion de projet
  • Atmosphère familiale
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Novencia accompagne ses clients dans leurs projets de transformation digitale, t...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
Non fourni
novencia.com Logo
Novencia
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Data Engineer depuis au moins 3 ans
  • compétences en langage Python/Spark
  • bonnes capacités de modélisation
  • forte appétence pour le Big Data
  • compétences en architectures Big Data
  • Azure/AWS
  • Cloud
  • Hadoop
  • Java
  • Kafka
Responsabilités
Responsabilités
  • Concevoir et proposer les solutions data répondant aux besoins fonctionnels et techniques des projets big data
  • Développer ces solutions et documenter le code associé
  • Mettre à disposition des équipes Métiers et des data scientists, des données de manière sécurisée et fiable
  • S’assurer de la conformité fonctionnelle et technique de ces réalisations en effectuant les tests nécessaires
  • Accompagner les mises en production et la mise en place de monitoring
  • Assurer la maintenance des applicatifs / plateformes de data science et de data analyse
  • Assurer une veille technologique
Lire la suite
Arrow Right