CrawlJobs Logo

Data Engineer Spark Scala

https://www.soprasteria.com Logo

Sopra Steria

Location Icon

Emplacement:
France , Paris

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Chez notre client, grande banque commerciale française, vous intégrez nos squads pour intervenir sur des projets de grande envergure, des projets transformants et structurants de la banque de demain. Vous interviendrez sur la gestion d’applications sur des domaines tels que : la conformité, la fraude, la lutte anti-blanchiment, les risques de crédit, la trésorerie, les paiements, les financements structurés ou encore le réglementaire bancaire.

Responsabilités:

  • Vous travaillez avec le client pour évaluer, concevoir, déployer, améliorer et maintenir les pipelines de données
  • Vous vous assurez que les pipelines de données créés sont résilients, sécurisés et accessibles
  • Vous définissez le modèle opérationnel pour monitorer et supporter les pipelines de données
  • Vous fournissez une expertise à nos clients sur leurs données pour assurer leur optimisation et leur sécurité par rapport à leurs besoins
  • Vous apportez un savoir en gestion de la qualité et la gouvernance de la donnée pour assurer le suivi de la conformité à la gouvernance de la donnée
  • Vous faites de la veille technologique dans le domaine afin d’enrichir les roadmaps technologiques et fournir des solutions modernes à nos clients

Exigences:

  • Maîtrise des technologies de bases de données Relationnelles et NoSQL
  • Maîtrise d’au moins un outil d’ETL/ELT (Informatica, datastage, etc.)
  • Maîtrise des technologies de traitement distribué de données (spark, scala, Hadoop)
  • Maîtrise d’au moins un framework de streaming de données (Kafka, RabbitMQ, etc.)
  • Maîtrise de chaines CI/CD et de des bonnes pratiques de DataOps
  • Maîtrise de solutions de Vitrtualisation de données (Denodo, Dremio, etc.)
  • Méthodologie Agile Scrum
  • Anglais professionnel

Souhaitable:

  • Vous êtes attiré(e) par le monde du numérique, le Cloud (maitrise d'un environnement public ou privé est un plus) et des technologies innovantes
  • Vous avez un bon esprit d'analyse, êtes curieux(se) et passionné(e) et vous avez le sens du travail en équipe
Ce que nous offrons:
  • Un accord télétravail pour télétravailler jusqu'à 2 jours par semaine selon vos missions
  • Un package avantages intéressants : une mutuelle, un CSE, des titres restaurants, un accord d'intéressement, des primes vacances et cooptation
  • Un accompagnement individualisé avec un mentor
  • Des opportunités de carrières multiples : plus de 50 métiers, autant de passerelles à imaginer ensemble
  • Plusieurs centaines de formations accessibles en toute autonomie depuis l'app mobile avec Sopra Steria Academy
  • La possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • L'opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore)

Informations supplémentaires:

Offre publiée:
29 avril 2025

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer Spark Scala

Data Engineer Spark Scala

Data Engineer Spark Scala pour la division Services Financiers de Sopra Steria, ...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d'une école d'Ingénieurs ou formation équivalente
  • Expérience de minimum 5 ans sur un poste similaire
  • Participation à un projet Data
  • Compétences en Spark, Scala, Python, Hadoop, Hive, Kafka, Elastic, Cloudera, Azure HD Insight, DataStage, SAS, DataIku, DataBricks
  • Importance au développement des compétences sur plusieurs technologies
  • Souci de l'apport de valeur pour les clients
  • Volonté de transmettre son savoir auprès de collaborateurs moins expérimentés
Responsabilités
Responsabilités
  • Évaluer, concevoir, déployer et maintenir en condition opérationnelle les bases de données
  • Définir le modèle opérationnel pour monitorer et supporter les pipelines de données
  • S'assurer que les pipelines de données créés sont résilients, sécurisés et accessibles
  • Fournir une expertise à nos clients sur leurs données pour assurer leur optimisation et leur sécurité
  • Apporter un savoir en gestion de la qualité et la gouvernance de la donnée
  • Faire de la veille technologique dans le domaine
Ce que nous offrons
Ce que nous offrons
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d'intéressement
  • Primes vacances et cooptation
  • Opportunités de carrières multiples
  • Formations pour développer vos compétences
  • Plateformes de formations en autonomie
  • Possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • Collectif Tech'Me UP
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Data Engineer pour intervenir auprès d'un client grand compte sur le secteur ban...
Emplacement
Emplacement
France , Saint-Ouen
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 en informatique, data science ou équivalent
  • Minimum 4 ans d'expérience en tant que Data Engineer
  • Expertise en traitement de données avec Spark, Scala ou Python
  • Bonne connaissance des bases de données relationnelles et non relationnelles
  • Maîtrise des outils de versioning (Git) et des pratiques de CI/CD
  • Capacité à travailler en équipe et à communiquer efficacement
  • Esprit d'analyse et de résolution de problèmes
  • Capacité à apprendre rapidement et à s'adapter à de nouvelles technologies
  • Anglais courant
Responsabilités
Responsabilités
  • Conception et développement de pipelines de données robustes et évolutifs
  • Traitement et analyse des données avec Spark, Scala ou Python
  • Collaboration avec les équipes de data science et de développement
  • Optimisation des performances des systèmes de traitement de données
  • Mise en œuvre des meilleures pratiques de gestion des données
  • Participation aux cérémonies agiles
  • Documentation technique
  • Veille technologique
  • Temps plein
Lire la suite
Arrow Right

Data Engineer confirmé Snowflake

Le centre d’expertise Data Solutions propose à ses clients un accompagnement de ...
Emplacement
Emplacement
France , Saint-Ouen-sur-Seine
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Ingénieur de formation
  • expérience de 3 ans minimum en tant que Data Engineer
  • maîtrise des langages Java, Scala ou Python
  • expertise sur les framework Spark
  • expérience sur des solutions Big data et cloud, particulièrement Snowflake
Responsabilités
Responsabilités
  • Analyser et comprendre les besoins métiers
  • participer à la définition et à la conception de l’architecture
  • gestion des données : préparation, ingestion, traitement, contrôle qualité
  • développer les jobs (par exemple Spark) et effectuer l'automatisation des flux d’alimentation du Data Lake
  • réaliser les tests de charge, tests unitaires
  • gérer la maintenabilité de la solution Snowflake (Optimisation et performance des traitements)
Ce que nous offrons
Ce que nous offrons
  • 27 jours de congés payés + 10 RTT
  • tickets restaurant d'une valeur de 9€ (prise en charge à 60% par Inetum)
  • suivi de carrière individualisé
  • parcours d'intégration unique et personnalisé
  • accord télétravail flexible (jusqu'à 3 jours/semaine)
  • prise en charge à 70% des frais de transport en commun
  • politique de formation avantageuse
  • animations d'agence régulières
  • opportunité d'intégrer une communauté d'experts sur la data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer confirmé Databricks

Nous recherchons un Data Engineer confirmé Databricks pour rejoindre notre centr...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Ingénieur de formation
  • expérience de 3 ans minimum en tant que Data Engineer
  • maîtrise des langages Java, Scala ou Python
  • expertise sur les framework Spark et/ou Hadoop
  • expérience sur Microsoft Azure, GCP ou AWS
  • expertise sur les services Cloud Data Platform suivants : Azure Data Lake, Azure Synapse, Azure Data Factory, Azure Data Explorer, Azure Databricks, Cloud Storage, BigQuery, DataPrep, DataProc
Responsabilités
Responsabilités
  • Analyser et comprendre les besoins métiers
  • Participer à la définition et à la conception de l’architecture
  • Avoir aucun secret sur la gestion des données : préparation, ingestion, traitement, contrôle qualité
  • Développer les jobs (par exemple Spark) et effectuer l'automatisation des flux d’alimentation du Data Lake
  • Réaliser les tests de charge, tests unitaires
  • Gérer la maintenabilité de la solution Big Data /Cloud (Optimisation et performance des traitements)
Ce que nous offrons
Ce que nous offrons
  • 27 jours de congés payés + 10 RTT
  • Tickets restaurant : D'une valeur de 9€ (Prise en charge à 60% par Inetum)
  • Suivi de carrière individualisé
  • Parcours d'intégration unique et personnalisé
  • Un accord télétravail flexible : Jusqu'à 3 jours/semaine en fonction de notre client
  • Une prise en charge à 70% des frais de transport en commun dans le cadre de vos déplacements professionnels
  • Politique de formation avantageuse
  • Des animations d'agence régulière avec les équipes Inetum : Soirées jeux, Afterworks, activité teambuilding
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Data Engineer expérimenté pour intervenir auprès d'un client grand compte bancai...
Emplacement
Emplacement
France , Saint-Ouen
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 7 ans d'expérience en tant que Data Engineer
  • Formation Bac+5 en informatique, data science ou équivalent
  • Expérience en traitement de données
  • Maîtrise d'AWS
  • Connaissance des bases de données relationnelles et non relationnelles
  • Maîtrise des outils de versioning (Git)
  • Capacité à travailler en équipe et à communiquer efficacement
  • Esprit d'analyse et de résolution de problèmes
  • Capacité à apprendre rapidement et à s'adapter à de nouvelles technologies
  • Anglais courant
Responsabilités
Responsabilités
  • Conception et développement de pipelines de données
  • Traitement et analyse des données avec Spark, Scala ou Python
  • Collaboration inter-équipes avec data science et développement
  • Optimisation des performances des systèmes de traitement de données
  • Gestion des données et gouvernance
  • Participation aux cérémonies agiles
  • Documentation technique
  • Veille technologique
Ce que nous offrons
Ce que nous offrons
  • 27 jours de congés payés + 10 RTT
  • Tickets restaurant d'une valeur de 9€ (prise en charge à 60%)
  • Suivi de carrière individualisé
  • Parcours d'intégration unique et personnalisé
  • Prise en charge à 70% des frais de transport en commun
  • Politique de formation avantageuse
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Novencia accompagne ses clients dans leurs projets de transformation digitale, t...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
Non fourni
novencia.com Logo
Novencia
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Data Engineer depuis au moins 3 ans
  • compétences en langage Python/Spark
  • bonnes capacités de modélisation
  • forte appétence pour le Big Data
  • compétences en architectures Big Data
  • Azure/AWS
  • Cloud
  • Hadoop
  • Java
  • Kafka
Responsabilités
Responsabilités
  • Concevoir et proposer les solutions data répondant aux besoins fonctionnels et techniques des projets big data
  • Développer ces solutions et documenter le code associé
  • Mettre à disposition des équipes Métiers et des data scientists, des données de manière sécurisée et fiable
  • S’assurer de la conformité fonctionnelle et technique de ces réalisations en effectuant les tests nécessaires
  • Accompagner les mises en production et la mise en place de monitoring
  • Assurer la maintenance des applicatifs / plateformes de data science et de data analyse
  • Assurer une veille technologique
Lire la suite
Arrow Right
Nouveau

Big Data Engineer

Intégré(e) au sein d’une équipe Sopra Steria, pour un de nos Grands Comptes Banc...
Emplacement
Emplacement
France , Mérignac
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 ou équivalent
  • Au moins 5 ans d’expérience dans la data dont 3 ans en Big Data
  • Expérience sur les technologies Hdfs, hive, spark, oozie, Scala, HQL, Shell, GitLab, Nexus, Maven, Jenkins, Sonar
  • Aimer travailler en équipe
  • Savoir relever les défis techniques
  • Savoir conseiller et apporter de la valeur ajoutée à une équipe
  • Savoir être challengeant et leader envers le client et l’équipe de développement
  • Aimer se tenir informé des nouveautés technologiques
  • Être à la recherche d’une évolution de carrière basée sur l’expérience projet et l’acquisition de nouvelles compétences
Responsabilités
Responsabilités
  • Apporter votre expertise et votre expérience à vos collègues lors des phases de conception et développement
  • Accompagner vos collègues dans leur montée en compétence technique au sein du projet
  • Définir et implémenter des solutions au sein d’un périmètre applicatif existant
  • Proposer des idées d’amélioration continue à votre client et à votre équipe (revue de procédures, mise en place de nouveaux outils dans le cadre de livraison, test ou qualimétrie)
  • Concevoir et développer des sujets complexes
  • Alimentation d’un DataLake jusqu‘au build d’un moteur de calcul
  • Intervention sur la mise en place de règles relatives aux normes Bâloises
Ce que nous offrons
Ce que nous offrons
  • Un accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Une mutuelle
  • Un CSE
  • Des titres restaurants
  • Un accord d’intéressement
  • Des primes vacances et cooptation
  • Des opportunités de carrières multiples
  • Plusieurs centaines de formations accessibles en toute autonomie avec Sopra Steria Academy
  • La possibilité de s’engager auprès d’une association grâce à notre plateforme d’engagement citoyen
  • L'opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore…)
  • Temps plein
Lire la suite
Arrow Right

Architecte Data Microsoft Fabric

Inetum est une entreprise de services numériques agile et innovante, acteur mond...
Emplacement
Emplacement
Maroc , Casablanca
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 en informatique, data, ingénierie ou école d’ingénieur
  • Certifications appréciées : Microsoft Certified: Fabric Analytics Engineer Associate, Azure Data Engineer, Power BI Data Analyst
  • Maîtrise de Microsoft Fabric (OneLake, Lakehouse, Data Pipelines, Dataflows, Notebooks, Warehouse…)
  • Excellente connaissance de Power BI, DAX, Data Modeling
  • Solide culture Cloud : Azure Data Services (Synapse, Azure Data Lake, Azure SQL, Azure Purview…)
  • Notions avancées en Spark, T-SQL, Python ou Scala
  • Connaissance des principes DataOps / DevOps dans un environnement cloud
  • Sécurité et gestion des identités dans l’écosystème Microsoft
Responsabilités
Responsabilités
  • Concevoir l’architecture cible d’un écosystème Data autour de Microsoft Fabric : ingestion, stockage, transformation, modélisation et exposition de la donnée
  • Définir les standards d’architecture (données, flux, sécurité, modèles sémantiques) en lien avec les parties prenantes Data (Data Engineers, Data Stewards, BI Analysts…)
  • Accompagner l’intégration de données multi-sources (ERP, CRM, APIs, fichiers, bases externes…) via Dataflows Gen2 ou Notebooks (Spark)
  • Superviser le modèle de gouvernance des données (catalogue, qualité, ownership) en s’appuyant sur Purview si déployé
  • Optimiser l’usage de Power BI (Fabric Capacity, modèle sémantique, DAX) pour répondre aux enjeux de self-service et de performance
  • Collaborer avec les équipes Infrastructure, Sécurité et Cloud pour garantir la conformité RGPD, la sécurité des accès (Azure AD, RBAC, sécurité au niveau des lignes…)
  • Contribuer à la mise en place de l’industrialisation : CI/CD des artefacts Data (pipelines, notebooks, datasets…), DataOps, automatisation
  • Assurer une veille technologique et un rôle de référent dans l’écosystème Fabric et Power Platform
  • Temps plein
Lire la suite
Arrow Right