CrawlJobs Logo

Développeur big data

randstaddigital.fr Logo

Randstad Digital France

Location Icon

Emplacement:
France , Lyon

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Immersion au cœur de la donnée et des enjeux Hadoop. Vous rejoindrez directement les équipes du client, un acteur majeur de la protection sociale, pour intégrer leur pôle Big Data. Dans un contexte de production à fortes attentes, votre rôle sera crucial pour piloter les évolutions du Datalake et garantir la fluidité des flux d'informations. Au-delà du simple développement, vous interviendrez comme un·e véritable référent·e technique capable de réaliser du reverse engineering sur des architectures héritées complexes et d'optimiser les performances globales de la plateforme.

Responsabilités:

  • Conception et maintenance des traitements d'alimentation de la plateforme Hadoop Cloudera
  • Développement d'extractions complexes et scripting avancé pour l'automatisation des processus
  • Expertise technique pour la spécification des tâches, la revue de code et l'accompagnement des profils plus juniors ou alternant·e·s
  • Support de niveau 2 et garantie de la maintenabilité ainsi que de l'exploitabilité du système
  • Collaboration étroite avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect des modèles référencés

Exigences:

  • Expérience confirmée de plus de 5 ans dans l'univers de la Data
  • Maîtrise avancée de Python et des environnements Hadoop (Hive, Impala)
  • Expertise en requêtage SQL et en scripting Shell pour l'automatisation
  • Expérience solide sur Spark et utilisation rigoureuse de GIT
  • Capacité à évoluer en mode Agile (Kanban ou Scrum) et à structurer l'activité via JIRA
  • Aisance relationnelle, communication avec diplomatie, grande capacité d'écoute, partage de savoir-faire avec pédagogie
  • Goût pour l'investigation technique et documentation précise des actions

Souhaitable:

  • Connaissance de Power BI et de SAS
  • Connaissance de l'écosystème de la protection sociale ou de la retraite complémentaire
Ce que nous offrons:
  • Communauté d’experts pour vous accompagner dans votre montée en compétence
  • Un management personnalisé assuré par un/une gestionnaire de carrière
  • Une licence Udemy Business pour tous les collaborateurs
  • Possibilité de télétravailler plusieurs jours par semaine
  • Évènements techniques et festifs
  • Tickets restaurant/ mutuelle
  • Prime de parrainage
  • Avantage CSE
  • Certification top employeur 2025

Informations supplémentaires:

Offre publiée:
22 mars 2026

Expiration:
29 mars 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Développeur big data

Développeur Big Data

Développeur Big Data pour intégrer le centre de compétences Big Data. Contexte: ...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
novencia.com Logo
Novencia
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Développeur Big Data depuis au moins 3 ans
  • appétence pour la finance
  • compétences en langage Java
  • bonnes capacités de modélisation
  • forte appétence pour le Big Data
  • data engineer convaincu
  • connaissances des clusters et des calculs parallèles
  • algorithmie
  • à l'affût des nouvelles technos
  • débrouillard(e)
Responsabilités
Responsabilités
  • Analyser le besoin utilisateur
  • Rédiger les spécifications techniques
  • Concevoir et développer
  • Réaliser les tests unitaires
  • Assister les utilisateurs afin d'assurer une continuité de service
  • Développement d'applications de traitements parallèles pour établir des bilans de stress tests financiers
  • Développement de services pour traiter et gérer le flux entrant de données financières dans un environnement distribué
  • Traitement des batchs
  • Maintenance du code legacy
  • Migration des services existants de On-Premise vers le Cloud
Ce que nous offrons
Ce que nous offrons
  • Chaque consultant a le choix de sa mission et décide de la façon dont il souhaite évoluer
Lire la suite
Arrow Right
Nouveau

Tech Lead Data

Au sein du Produit Socle Data Retail Groupe, vous êtes le Tech Lead d’une équipe...
Emplacement
Emplacement
France , Paris; Aix-en-Provence
Salaire
Salaire:
Non fourni
balzac-paris.com Logo
Balzac Paris
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +4/+5 (de préférence spécialisée dans la Data)
  • Expérience significative de 3 ans minimum sur un poste similaire dans un contexte agile
  • Expert et leader en Data ingéniérie
  • Maîtrise du SQL
  • Système décisionnel On Premise (équivalent à Teradata ou Exadata)
  • Système de base de données Big Query ou équivalent sur un autre Cloud
  • Développements Big Data (partitioning, clustering…)
  • Compétence en ingénierie logicielle : conception logicielle, développement, stratégie de test, déploiement
  • ETL : Semarchy
  • Outils CI/CD : GIT
Responsabilités
Responsabilités
  • Garant de la bonne exécution de la fabrication logicielle (sur un périmètre Data)
  • Garant de la bonne construction du produit, en assumant dans son périmètre la responsabilité des choix techniques, de la qualité et des pratiques à utiliser
  • L’interlocuteur technique privilégié du Product Owner, du référent de la production et des fournisseurs
  • Porte la responsabilité de la conception générale, de la mise en œuvre de l’architecture applicative et technique
  • Organise la mise en place des moyens techniques nécessaires à la squad
  • Porte les exigences non fonctionnelles : sécurité / habilitations, performance, réglementation, numérique responsable
  • Accompagne les développeurs, aide à la résolution des problèmes, et participe à leur montée en compétences
  • Référent en matière de code et de bonnes pratiques du projet
  • S’assure de la qualité du code grâce à des revues de code, des outils d’analyse et de tests automatiques
  • Organise le traitement de la dette technique
Ce que nous offrons
Ce que nous offrons
  • Package de rémunération attrayant comprenant une part variable sur objectif individuel et une prime d’intéressement
  • 80 % de prise en charge des frais de transports en commun
  • Environ 9 semaines de congés annuels (congés et RTT)
  • Télétravail hybride ! 30 jours de télétravail par trimestre et flexibilité des horaires
  • Politique familiale, des aides et une flexibilité pour les collaborateurs aidants, les parents et futurs parents
  • Accès à un Plan Epargne Entreprise avec abondement
  • Très bon niveau de protection sociale
  • CSE actif
  • Locaux attractifs et des comités d'animations par site
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Développeur Java Big Data

La chaîne informatique de risques opérationnels intègre les contrôles antifraude...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
55000.00 - 65000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 7 à 20 ans d'expérience en développement et/ou Data Engineering
  • Java confirmé — minimum 5 ans d'expérience
  • Apache Spark — minimum 1 an d'expérience
  • Connaissance d'un Cloud provider, Azure idéalement
  • Maîtrise de Kubernetes
  • Sensibilité aux enjeux de Data Quality et BI
  • Expérience dans un contexte bancaire ou finance de marché appréciée
  • Autonomie, rigueur et capacité à travailler en environnement complexe
Responsabilités
Responsabilités
  • Participation au planning de développement, estimation des charges et suivi d'avancement en méthodologie agile
  • Développement des pipelines de données et des traitements sur le datalake Azure (Spark, Airflow, Java/Spring)
  • Tests unitaires et d'intégration, déploiement en production, supervision des mises en service
  • Présentation des livrables aux parties prenantes, rédaction de la documentation technique
Ce que nous offrons
Ce que nous offrons
  • Formations et certifications
  • Choix de mission et de projets adaptés à votre développement professionnel
  • Accompagnement tout au long de votre carrière
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Data Engineer

Vos missions : Vous êtes le garant de la 'colonne vertébrale' de nos données. Vo...
Emplacement
Emplacement
France , Morlaix
Salaire
Salaire:
40000.00 - 50000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 en informatique (Data Engineering, Big Data)
  • 5 ans d'expérience minimum sur un poste similaire
  • Expertise sur les outils d'ingestion et de transformation (Apache Hop, Nifi, AWS Glue, Spark)
  • Solide expérience en modélisation de données (SQL avancé, modélisation en étoile) pour le décisionnel et la Data Science
  • Bonne maîtrise de l'écosystème AWS (S3, Lambda, Redshift ou Athena)
  • Maîtrise impérative de Python et SQL
  • Capacité à dialoguer aussi bien avec les développeurs qu'avec les Data Scientists
  • Anglais courant écrit (documentation technique)
Responsabilités
Responsabilités
  • Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT) pour collecter la donnée depuis les sources applicatives hétérogènes
  • Assurer l'orchestration et la supervision des flux pour garantir la disponibilité de la donnée
  • Automatiser l'ingestion pour réduire les interventions manuelles et fiabiliser les traitements
  • Modéliser l'entrepôt de données (Data Warehouse) pour garantir son exploitabilité par les métiers
  • Préparer et transformer les données pour les rendre 'consommables' par les équipes Data Science
  • Optimiser les performances de stockage et de requêtage
  • Garantir l'intégrité des données (Data Quality) par la mise en place de tests automatisés
  • Documenter les flux et maintenir le dictionnaire de données à jour
  • Gérer le cycle de vie de la donnée (rétention, archivage) conformément au RGPD
  • Collaboration avec les équipes applicatives
Ce que nous offrons
Ce que nous offrons
  • Une équipe dynamique au sein d'un environnement en transformation
  • Un parcours d'intégration sur mesure
  • Une soirée d'intégration au siège à Morlaix organisée une fois par an avec tous les nouveaux collaborateurs du groupe
  • 6 semaines de congés + RTT
  • Carte Swile (tickets restaurant)
  • 2 jours de télétravail après une phase d'intégration
  • Accès aux avantages du CSE du Télégramme
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Snowflake

En tant qu'Ingénieur de Données Snowflake chez Micropole, vous jouerez un rôle c...
Emplacement
Emplacement
France , Levallois-Perret
Salaire
Salaire:
Non fourni
micropole.com Logo
Micropole
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme de licence en informatique, ingénierie ou domaine connexe
  • un master est un plus
  • Expérience avérée en tant qu'Ingénieur de Données, Développeur de Logiciels, ou rôle similaire
  • Expérience approfondie avec la plateforme de données cloud de Snowflake, y compris SnowSQL, SnowPipe et autres fonctionnalités de Snowflake
  • Maîtrise de SQL et expérience avec les bases de données relationnelles, la rédaction de requêtes, ainsi qu'une familiarité de travail avec une variété de bases de données
  • Expérience avec les outils de big data : Hadoop, Spark, Kafka, etc.
  • Expérience avec les outils de gestion de pipelines et de flux de travail de données : Azkaban, Luigi, Airflow, etc.
  • Expérience avec les services cloud AWS : EC2, EMR, RDS, Redshift
  • Fortes compétences analytiques liées au travail avec des ensembles de données non structurés
  • Expérience avec les systèmes de traitement en flux : Storm, Spark-Streaming, etc.
Responsabilités
Responsabilités
  • Concevoir, construire, installer, tester et maintenir des systèmes de gestion de données hautement évolutifs
  • Assurer que les systèmes répondent aux exigences métiers et aux pratiques de l'industrie
  • Construire des algorithmes de haute performance, des prototypes, des modèles prédictifs et des preuves de concept
  • Intégrer de nouvelles technologies de gestion de données et outils d'ingénierie logicielle dans les structures existantes
  • Créer des outils de données pour les équipes d'analytique et de science des données afin de les aider à construire et optimiser notre produit
  • Utiliser une variété de langues et d'outils pour assembler les systèmes ensemble
  • Recommander des moyens d'améliorer la fiabilité, l'efficacité et la qualité des données
  • Collaborer avec les architectes de données, les modélisateurs et les membres de l'équipe IT sur les objectifs des projets
Ce que nous offrons
Ce que nous offrons
  • Intégrer une communauté de 1200 experts passionnés
  • Construire ensemble les solutions stratégiques et innovantes de demain
  • Participer au développement de nos 4 centres d’excellences cloud : AWS, Microsoft, Salesforce, GCP
  • Evoluer continuellement au travers de formations et de certifications
  • S’assurer d’une innovation continue grâce à : notre écosystème de partenaires technologiques
  • notre accélérateur de start’up databoost’R
  • nos lieux d’innovations « innovativeSpaces » et de co-construction avec les clients
  • notre management par les talents naturels
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Développeur Snowflake

Dans le cadre du renforcement de notre équipe Data, nous recherchons un Développ...
Emplacement
Emplacement
France , Rennes
Salaire
Salaire:
Non fourni
asi.fr Logo
ASI
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 en informatique ou équivalent
  • Minimum 4 ans d’expérience sur des projets Data, Data Engineering ou développement Snowflake
  • Excellente maîtrise de Snowflake
  • Très bon niveau en SQL
  • Connaissance des outils d’intégration / orchestration (Airflow, DBT, Talend, Matillion, Fivetran…)
  • Compréhension solide des concepts Data : ETL/ELT, DWH, Big Data, API
  • Aisance technique, rigueur, autonomie et sens de la qualité
  • Bon relationnel et capacité à travailler en équipe multidisciplinaire
Responsabilités
Responsabilités
  • Concevoir, développer et maintenir des pipelines de données sur Snowflake
  • Modéliser les données (Data Modeling : schémas en étoile, Data Vault…)
  • Optimiser les traitements et les performances SQL
  • Implémenter les mécanismes Snowflake : Snowpipe, Streams, Tasks, Time Travel, Cloning, RBAC
  • Intégrer Snowflake dans l’écosystème Data (ETL/ELT, orchestration, monitoring)
  • Garantir la qualité, la gouvernance et la documentation des données
  • Participer aux choix techniques et aux revues d’architecture
  • Collaborer étroitement avec les équipes Data : Data Engineers, Architectes, Analysts
  • Travailler dans un environnement Agile orienté produit et qualité
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Développeur FullStack & IA

Stage - Développeur FullStack (H/F) pour rejoindre notre équipe technique et par...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
1000.00 - 1500.00 EUR / Mois
vo2-group.com Logo
VO2 Group
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Étudiant(e) en école d’ingénieurs, université ou formation spécialisée en développement (type 42, Epitech, Le Wagon ou équivalent)
  • Stage de 6 mois (stage de fin d’études ou césure)
  • Bases solides en développement web (JavaScript / TypeScript)
  • Connaissances en React ou frameworks front-end modernes
  • Notions de backend et APIs
  • Intérêt pour les outils de développement assisté par l’IA
  • Curiosité pour les sujets data, automatisation et IA
  • Tu es débrouillard(e) et autonome
  • Tu aimes apprendre vite et expérimenter
  • Tu es pragmatique et orienté solution
Responsabilités
Responsabilités
  • Développement produit (Web & Mobile): Participer au développement continu de l’application mobile et de l’application web Tessan
  • Contribuer au développement de nouvelles fonctionnalités (front-end & back-end)
  • Participer à la correction de bugs et à l’amélioration continue des applications
  • Maintenance & amélioration des services: Participer à la maintenance des services backend et des APIs
  • Contribuer à l’amélioration des performances et de la stabilité des services
  • Participer à la mise en place de bonnes pratiques de développement (tests, qualité de code, documentation)
  • Optimisation & automatisation: Contribuer à l’optimisation de certains processus techniques et opérationnels
  • Participer à l’automatisation de flux (données, synchronisations, traitements)
  • Utiliser des outils d’IA pour améliorer la productivité et l’efficacité du développement
  • CI/CD, déploiement & industrialisation: Participer à l’amélioration des pipelines CI/CD
Ce que nous offrons
Ce que nous offrons
  • Mutuelle Alan (prise en charge à 50% pour vous et vos enfants)
  • Carte Swile (12€/jour)
  • Free Snack & Drinks (Tessan Breakfast tous les mardis, Tessan Lunch tous les mois)
  • Locaux flambants neufs (Paris)
  • Des moments conviviaux (Tessan Party, anniversaires, apéros ...)
  • Temps plein
Lire la suite
Arrow Right