CrawlJobs Logo

Data Intégration Senior

1glink.com Logo

1G-LINK CONSULTING

Location Icon

Emplacement:
France , Bezons

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior.

Responsabilités:

  • Organiser et piloter votre activité ainsi que celle d’un consultant junior
  • Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques
  • Assurer une communication claire et régulière sur l’avancement
  • Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB)
  • Développer et orchestrer les pipelines avec Azure Data Factory
  • Alimenter et structurer le datalake dans Snowflake
  • Concevoir des modèles de données (tables de faits, dimensions)
  • Préparer les données pour les usages analytiques et le reporting
  • Collaborer à la restitution via Power BI
  • Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT
  • Contribuer à l’amélioration continue de l’architecture data
  • Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité)
  • Exploiter les données issues des outils cyber pour produire des indicateurs pertinents

Exigences:

  • 5+ ans d’expérience en data engineering / data integration
  • Expert(e) Snowflake
  • Maîtrise de Azure Data Factory
  • Bon niveau en SQL
  • Bon relationnel et excellente communication
  • Esprit structuré, rigoureux et orienté résultats
  • Sensibilité aux enjeux métiers en cybersécurité ou IT
  • Capacité à encadrer un profil plus junior

Souhaitable:

  • Expérience avec Power BI
  • Connaissance de Apache Airflow (ou Astronomer)
  • Notions ou expérience avec DBT
  • Connaissance des environnements cloud Azure

Informations supplémentaires:

Offre publiée:
05 mai 2026

Type d'emploi:
Temps plein
Type de travail:
Travail sur site
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Intégration Senior

Senior Data Developer

Le groupe international, leader dans son secteur accélère sa transformation digi...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Senior Data Developer

Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’in...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Senior Data Developer

Le groupe international, leader dans son secteur accélère sa transformation digi...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
70000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering au sein d’un environnement data moderne
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Maitrise de l’ETL Talend
  • Solides connaissances en Python et SQL
  • Solides connaissances en outils d'orchestration (Control-M, Airflow)
  • Expérience des bases de données SQL et NoSQL
  • Expérience de la plateforme Google Cloud et de son environnement
  • Expérience des techniques de développement en intégration continue (CI/CD)
  • Connaissance d'autres langages de programmation ou de frameworks de pipelines
  • Connaissance de Terraform
Responsabilités
Responsabilités
  • Concevoir, développer, maintenir et optimiser des pipelines middleware pour l’ingestion et la transformation des données (batch, streaming, datalake, datawarehouse…)
  • Assurer le run, la qualité, l'intégrité et la fiabilité des pipelines mis en œuvre
  • Garantir le respect des normes data, des politiques internes et des obligations réglementaires
  • Intégrer de nouvelles technologies de data engineering et de génie logiciel dans l’existant
  • Travailler en méthodologie agile afin de délivrer des améliorations continues et robustes
  • Veiller à ce que les architectures et solutions répondent aux besoins métiers et aux standards du marché
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior - AWS

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Solide expérience sur AWS Data et l’environnement Snowflake
  • Habitué aux projets industrialisés à forte volumétrie
  • Maitrise de l’anglais indispensable
Responsabilités
Responsabilités
  • Renforcer les capacités Cloud Data de l’agence
  • Accompagner les projets de Data Gouvernance et de Data Platform sur la modernisation des architectures et pipelines AWS intégrés à Snowflake
  • Conception AWS Data: Concevoir des pipelines AWS avec Glue, Lambda, Step Functions, S3
  • Industrialiser l’ingestion vers Snowflake (Snowpipe, Streams, Tasks)
  • Implémenter les transformations via Glue/Spark ou Python
  • Plateforme et gouvernance: Participer à la structuration de la Data Platform AWS + Snowflake
  • Contribuer aux chantiers MDM (Semarchy) et Data Gouvernance
  • Définir les bonnes pratiques d’architecture et industrialisation Cloud
  • Performance, sécurité, observabilité: Optimiser stockage, coûts et performance des traitements AWS
  • Déployer les politiques IAM, encryption, secrets management
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples: plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Consultant(e) Senior / Manager Data - Gouvernance de données

Vous intégrerez le Conseil de spécialité Data, entité transverse au cœur des tra...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Formation Bac+5 (école d'ingénieur, université ou équivalent)
  • 5 à 10+ ans d'expérience sur des fonctions liées à la Data Gouvernance, au conseil Data ou à la transformation Data
  • Expérience confirmée en cadrage, conseil et accompagnement stratégique
  • Expérience en environnement multi‑clients et multi‑secteurs
  • Anglais professionnel niveau B2 minimum requis
Responsabilités
Responsabilités
  • Cadrage et déploiement de dispositifs de gouvernance des données
  • Définition de cadres de gouvernance alignés sur les enjeux business et réglementaires
  • Accompagnement des organisations Data (Data Office, CDO, Data Owners, Data Stewards)
  • Pilotage de programmes de transformation Data orientés qualité, maîtrise et valorisation des données
  • Contribution aux phases d’avant‑vente : compréhension des enjeux clients, construction de propositions de valeur, soutenance d’offres
  • Réalisez des audits de maturité Data (usages, données, outils, organisation)
  • Définissez et mettez en œuvre des référentiels de données (MDM, Golden Records)
  • Portez des démarches de qualité des données (règles, indicateurs, processus de remédiation)
  • Déployez des dispositifs de Data Catalog & Data Lineage
  • Apportez une expertise sur le marché des solutions de Data Gouvernance (catalogue, qualité, MDM, métadonnées)
Ce que nous offrons
Ce que nous offrons
  • Un accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Des nouveaux locaux inspirants et un environnement de travail agréable certifié Great Place To work à la Défense et dans plusieurs grandes villes de France
  • Un package avantages intéressant : une mutuelle, un CSE, des titres restaurants, un accord d’intéressement, des primes vacances et cooptation
  • Un accompagnement individualisé avec un mentor que vous choisissez
  • Des opportunités de carrières multiples : plus de 30 familles de métiers, autant de passerelles à imaginer ensemble
  • Plusieurs centaines de formations accessibles en toute autonomie depuis l’app mobile avec Sopra Steria Academy
  • Des parcours pour accélérer la progression et la promotion des femmes dans l’entreprise tous les niveaux
  • La possibilité de s’engager auprès d’une association grâce à notre plateforme d’engagement citoyen
  • Temps plein
Lire la suite
Arrow Right

Senior delivery leader data

La Direction des Systèmes d’information, « Global IT », recherche un(e) Senior D...
Emplacement
Emplacement
France , Montrouge
Salaire
Salaire:
Non fourni
credit-agricole.com Logo
Crédit Agricole
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac + 5 / M2 et plus
  • Ecole d'ingénieur, université
  • Spécialisation : Systèmes d'information
  • Niveau d'expérience minimum: 11 ans et plus
  • Une expérience en IA, data, et leader d'équipe sont requises
  • Project management, organisation Agile
  • Test driven developments methodology
  • Connaissances front-office (produits, trades, events)
  • Expérience de développement et déploiement de solution API management (Kong/WSO2)
  • Expérience de déploiement de solution Cloud (Aws serait un plus)
Responsabilités
Responsabilités
  • Pilotage des projets
  • Responsable opérationnel de l’exécution des projets stratégiques TSDL et TEAS
  • Principal point de contact du ou des partenaires business « Product Owners »
  • Gestion des priorités de la roadmap
  • Assurer la livraison du portefeuille projets (respect du planning/budget/qualité et satisfaction client)
  • Piloter la généralisation de la consommation des trades & events de TEAS à d’autres consommateurs
  • Piloter l’évolution du TSDL pour intégrer la distribution des données de la data platform de Capital Market
  • Gérer et assurer le bon fonctionnement de l'équipe
  • Favoriser le déploiement d’agile, le CI/CD, Devops, la data, l’IA, l’innovation, la coopération et l'autonomie
  • Promouvoir une culture d’excellence technologique et de collaboration agile
Ce que nous offrons
Ce que nous offrons
  • La majorité des postes est éligible au télétravail dans les conditions prévues par notre accord reposant sur le double volontariat (collaborateur & manager) et après une période d’intégration réussie
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right

Senior Data Platform Engineer – Google Cloud

Rejoignez une équipe Data en pleine constitution et jouez un rôle clé dans le dé...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans minimum en Data Engineering ou Software Engineering autour de solutions Data dans des architectures modernes
  • Bac+5 (ingénieur ou équivalent)
  • Anglais courant (écrit et oral)
  • Google Cloud Platform (BigQuery, GCS, Compute Engine, Cloud Composer, IAM)
  • Sécurité et FinOps dans le Cloud
  • Connaissance d’outils ETL/ELT (Talend ou équivalent)
  • Python et SQL avancés
  • Orchestration de workflows (Airflow / Cloud Composer, ou équivalent)
  • Bases de données relationnelles et NoSQL
  • CI/CD, intégration continue et automatisation
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines de données pour ingestion et transformation dans des environnements batch et streaming
  • Contribuer à l’évolution de l’architecture de la Data Platform et participer aux choix techniques permettant de faire évoluer la plateforme à l’échelle du groupe
  • Développer et gérer des produits de données pour les services métiers
  • Mettre en place des mécanismes de monitoring, d’alerting et d’observabilité afin de garantir la fiabilité et la performance de la plateforme Data et des pipelines
  • Assurer le run et la fiabilité de la plateforme Data sur GCP
  • Automatiser les workflows via CI/CD adaptés aux besoins des ingénieurs de données
  • Garantir la sécurité et la conformité de la plateforme GCP selon les standards du marché
  • Appliquer les bonnes pratiques FinOps pour optimiser les coûts
  • Assurer la qualité et l’intégrité des données dans les pipelines
  • Contribuer à l’amélioration continue des normes, standards et outils de gestion de la Data
  • Temps plein
Lire la suite
Arrow Right