CrawlJobs Logo

Data Engineer Snowflake

talan.com Logo

Talan

Location Icon

Emplacement:
France , Paris

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Nous sommes à la recherche d’un Big Data Engineer Snowflake qui sera en charge des modélisations data et de l’intégration des données : acquisition, préparation, modélisation et stockage, exposition. Vous devrez faire preuve d’un état d’esprit à la fois innovant, méthodique, orienté solution (et non problème !), et communiquant.

Responsabilités:

  • Analyse des besoins techniques métiers, participation à la définition des architectures solution SQL, développement et optimisation, code review, maintenir les pratiques Devops “You build IT, You run IT”, support à recette et mise en production, documentation,…
  • Modélisation de la Cloud Database Snowflake
  • Benchmark de solutions et conseil auprès de notre client sur les solutions technologiques à adopter, en lien avec leurs besoins
  • Partage de connaissances et formations interne

Exigences:

  • Issu d’une formation supérieure (école d’ingénieur, master…)
  • Expérience dans le domaine du conseil (orienté satisfaction client et vision partenariale)
  • Au moins 6 années d’expérience dans le domaine du SQL/ETL
  • Expérience d’au moins 1 an sur Snowflake
  • Maîtrise du développement data (SQL, Python, …)
  • Solides expériences dans la mise en place de pipeline de données
  • Maîtrise d’au moins une technique de modélisation : Star Schéma, DataVault, DataMesh,…
  • Expérience sur une plateforme Cloud (idéalement AWS)
  • Expérience sur des flux temps réel
  • Expérience de l’Agilité
  • Autonomie, organisation, sens du partage
  • Bonne communication
  • Orientation produit et solution

Souhaitable:

Connaissance de concepts comme les suivants : DataOps, FinOps

Ce que nous offrons:
  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications)
  • Locaux modernes en centre-ville
  • Télétravail jusqu’à 5 jours selon les missions, prime d’équipement de 100€
  • Mobilité en France et à l’étranger
  • Tickets restaurant, prime vacances, 50% transport (abonnement transport public), mutuelle
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Actionnariat salarié
  • Prime de cooptations
  • RTT

Informations supplémentaires:

Offre publiée:
08 janvier 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer Snowflake

Data Engineer confirmé Snowflake

Le centre d’expertise Data Solutions propose à ses clients un accompagnement de ...
Emplacement
Emplacement
France , Saint-Ouen-sur-Seine
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Ingénieur de formation
  • expérience de 3 ans minimum en tant que Data Engineer
  • maîtrise des langages Java, Scala ou Python
  • expertise sur les framework Spark
  • expérience sur des solutions Big data et cloud, particulièrement Snowflake
Responsabilités
Responsabilités
  • Analyser et comprendre les besoins métiers
  • participer à la définition et à la conception de l’architecture
  • gestion des données : préparation, ingestion, traitement, contrôle qualité
  • développer les jobs (par exemple Spark) et effectuer l'automatisation des flux d’alimentation du Data Lake
  • réaliser les tests de charge, tests unitaires
  • gérer la maintenabilité de la solution Snowflake (Optimisation et performance des traitements)
Ce que nous offrons
Ce que nous offrons
  • 27 jours de congés payés + 10 RTT
  • tickets restaurant d'une valeur de 9€ (prise en charge à 60% par Inetum)
  • suivi de carrière individualisé
  • parcours d'intégration unique et personnalisé
  • accord télétravail flexible (jusqu'à 3 jours/semaine)
  • prise en charge à 70% des frais de transport en commun
  • politique de formation avantageuse
  • animations d'agence régulières
  • opportunité d'intégrer une communauté d'experts sur la data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior - AWS

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Solide expérience sur AWS Data et l’environnement Snowflake
  • Habitué aux projets industrialisés à forte volumétrie
  • Maitrise de l’anglais indispensable
Responsabilités
Responsabilités
  • Renforcer les capacités Cloud Data de l’agence
  • Accompagner les projets de Data Gouvernance et de Data Platform sur la modernisation des architectures et pipelines AWS intégrés à Snowflake
  • Conception AWS Data: Concevoir des pipelines AWS avec Glue, Lambda, Step Functions, S3
  • Industrialiser l’ingestion vers Snowflake (Snowpipe, Streams, Tasks)
  • Implémenter les transformations via Glue/Spark ou Python
  • Plateforme et gouvernance: Participer à la structuration de la Data Platform AWS + Snowflake
  • Contribuer aux chantiers MDM (Semarchy) et Data Gouvernance
  • Définir les bonnes pratiques d’architecture et industrialisation Cloud
  • Performance, sécurité, observabilité: Optimiser stockage, coûts et performance des traitements AWS
  • Déployer les politiques IAM, encryption, secrets management
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples: plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Senior Data Engineer

Rejoignez-nous en tant que Senior Data Engineer Snowflake et participez à la con...
Emplacement
Emplacement
France , Bezons
Salaire
Salaire:
Non fourni
1glink.com Logo
1G-LINK CONSULTING
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Experience d'au moins 5 ans d'expérience en Data Engineering
  • Expertise Snowflake et des procédures stockées
  • Maîtrise d’Azure DevOps (CI/CD) et Azure Data Factory
  • Au moins une expérience avec SAP (obligatoire) et maîtrises des SAP Tables
  • Compétences avancées en SQL
  • Expertise DWH/DataMart
Responsabilités
Responsabilités
  • Concevoir/maintenir des Data Warehouses et DataMarts évolutifs basés sur des données financières
  • Développer/optimiser des requêtes SQL complexes et procédures stockées (Snowflake)
  • Intégrer des données SAP (table, mappage, transformation)
  • Orchestrer des pipelines via Azure Data Factory
  • Implémenter des processus CI/CD (Azure DevOps)
  • Garantir la qualité des données (contrôles ELT)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Snowflake

En tant qu'Ingénieur de Données Snowflake chez Micropole, vous jouerez un rôle c...
Emplacement
Emplacement
France , Levallois-Perret
Salaire
Salaire:
Non fourni
micropole.com Logo
Micropole
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme de licence en informatique, ingénierie ou domaine connexe
  • un master est un plus
  • Expérience avérée en tant qu'Ingénieur de Données, Développeur de Logiciels, ou rôle similaire
  • Expérience approfondie avec la plateforme de données cloud de Snowflake, y compris SnowSQL, SnowPipe et autres fonctionnalités de Snowflake
  • Maîtrise de SQL et expérience avec les bases de données relationnelles, la rédaction de requêtes, ainsi qu'une familiarité de travail avec une variété de bases de données
  • Expérience avec les outils de big data : Hadoop, Spark, Kafka, etc.
  • Expérience avec les outils de gestion de pipelines et de flux de travail de données : Azkaban, Luigi, Airflow, etc.
  • Expérience avec les services cloud AWS : EC2, EMR, RDS, Redshift
  • Fortes compétences analytiques liées au travail avec des ensembles de données non structurés
  • Expérience avec les systèmes de traitement en flux : Storm, Spark-Streaming, etc.
Responsabilités
Responsabilités
  • Concevoir, construire, installer, tester et maintenir des systèmes de gestion de données hautement évolutifs
  • Assurer que les systèmes répondent aux exigences métiers et aux pratiques de l'industrie
  • Construire des algorithmes de haute performance, des prototypes, des modèles prédictifs et des preuves de concept
  • Intégrer de nouvelles technologies de gestion de données et outils d'ingénierie logicielle dans les structures existantes
  • Créer des outils de données pour les équipes d'analytique et de science des données afin de les aider à construire et optimiser notre produit
  • Utiliser une variété de langues et d'outils pour assembler les systèmes ensemble
  • Recommander des moyens d'améliorer la fiabilité, l'efficacité et la qualité des données
  • Collaborer avec les architectes de données, les modélisateurs et les membres de l'équipe IT sur les objectifs des projets
Ce que nous offrons
Ce que nous offrons
  • Intégrer une communauté de 1200 experts passionnés
  • Construire ensemble les solutions stratégiques et innovantes de demain
  • Participer au développement de nos 4 centres d’excellences cloud : AWS, Microsoft, Salesforce, GCP
  • Evoluer continuellement au travers de formations et de certifications
  • S’assurer d’une innovation continue grâce à : notre écosystème de partenaires technologiques
  • notre accélérateur de start’up databoost’R
  • nos lieux d’innovations « innovativeSpaces » et de co-construction avec les clients
  • notre management par les talents naturels
  • Temps plein
Lire la suite
Arrow Right

Data Engineer DBT/Snowflake

En tant que Data Engineer, vous jouerez un rôle clé dans le développement, l’amé...
Emplacement
Emplacement
Luxembourg , Luxembourg
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme universitaire en Informatique, Systèmes d’Information ou Ingénierie (BAC +5)
  • Parfaite maîtrise du français et de l’anglais
  • Expérience confirmée en ETL et dans les environnements cloud
  • Expérience en Oracle Data Integrator (ODI) est un réel atout
  • Maîtrise de Snowflake, DBT ou technologies similaires fortement appréciée
  • Capacité à lire, comprendre et mettre à jour des modèles de données logiques et physiques
  • Expérience en DevOps, pipelines CI/CD et gestion de versions
  • Très bonne connaissance du SQL et du PL/SQL
  • Connaissance générale des produits bancaires et des processus financiers
Responsabilités
Responsabilités
  • Participer à la définition des solutions cibles autour de produits de données communs, en promouvant une Single Source of Truth
  • Traduire les besoins métiers en solutions concrètes et collaborer avec les data architects, data modelers, data engineers et analystes
  • Maintenir et faire évoluer les solutions existantes tout en construisant les solutions cibles
  • Encadrer, challenger et valider les livrables (flows, documentations, processus…) afin de garantir leur qualité et réutilisabilité
  • Améliorer les pipelines CI/CD et veiller à leur alignement avec les meilleures pratiques de Data Engineering de l’équipe
  • Garantir la qualité des livrables et assurer que les tests automatisés soient mis en place et maintenus
Lire la suite
Arrow Right
Nouveau

Data Engineer

En tant que Data Engineer chez LeHibou, vous concevez, industrialisez et opérez ...
Emplacement
Emplacement
France , Bordeaux
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
lehibou.com Logo
LeHibou
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 3–5 ans min d’expérience en Data Engineering (ou rôle data proche avec forte composante ingestion/orchestration/industrialisation)
  • Maîtrise avancée de DBT (implémentation, tests, documentation, stratégies incrémentales)
  • Excellente connaissance de PostgreSQL et des bases relationnelles (tuning, indexation, partitions)
  • Expérience avec AWS Quicksight, DMS, RDS, S3 et Airbyte
  • Solides bases de modélisation à la Kimball (schéma en étoile, ERD, tables de faits/dimensions)
  • Pratique de la qualité et de la gouvernance de données (tests, métriques, nomenclature, SLAs)
  • Apprécié: connaissance de Snowflake et des patterns de data warehousing cloud
  • Capacité à collaborer avec des profils métier et à traduire des besoins en modèles et pipelines opérationnels
  • Bac +5 / Master
Responsabilités
Responsabilités
  • Conception et industrialisation de pipelines
  • Mise en place et optimisation d’ingestions (batch/near real-time) depuis des sources internes/externes via Airbyte et AWS (DMS, RDS, S3)
  • Orchestration, monitoring et alerting des workflows pour un MTTD/MTTR minimal
  • Architecture et modélisation
  • Structuration en layers (bronze/argent/or) avec séparation claire ingestion/transformations/serving
  • Application des bonnes pratiques de modélisation (étoile, ERD, faits/dimensions) inspirées de Kimball pour servir les besoins Analytics et Produit
  • Qualité, fiabilité et gouvernance
  • Mise en place de tests automatisés (qualité, fraîcheur, contraintes) et de checks de data observability
  • Standards de documentation (nomenclatures, définitions de métriques, SLAs de datasets) et diffusion des bonnes pratiques
  • Performance et optimisation
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • Prime de cooptation
  • Partenariat avec des associations
  • Allocation sportive
  • Temps plein
Lire la suite
Arrow Right

Analytics Engineer

L’Analytics Engineer structure, transforme et optimise les données pour les rend...
Emplacement
Emplacement
France
Salaire
Salaire:
35000.00 - 50000.00 EUR / Année
licornesociety.com Logo
Licorne Society
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Maîtrise du SQL avancé (modélisation, optimisation des requêtes)
  • ETL/ELT & pipelines de données (Airflow, dbt, Fivetran, Talend)
  • Gestion des data warehouses (BigQuery, Snowflake, Redshift)
  • Langages de programmation (Python, parfois Java/Scala) pour l’automatisation
  • Architecture et modélisation des données (modèles en étoile, normalisation)
  • Compréhension des besoins business et traduction en solutions data
  • Collaboration avec les Data Analysts & Data Scientists pour optimiser l’accès aux insights
  • Data gouvernance & qualité des données (bonnes pratiques de documentation, monitoring, versioning)
  • Travail en équipe avec les ingénieurs, analystes et métiers
  • Autonomie et rigueur dans la gestion des flux et process data
Responsabilités
Responsabilités
  • Créer des modèles de données clairs et scalables pour les analystes et les équipes métier
  • Automatiser et industrialiser les flux de données pour assurer leur fiabilité
  • Collaborer avec les Data Analysts et Data Scientists pour faciliter l'accès aux insights
  • Assurer la qualité, la gouvernance et la documentation des données
  • Utiliser SQL, dbt, Python et outils cloud (BigQuery, Snowflake, Redshift) pour transformer et gérer la data
Lire la suite
Arrow Right