CrawlJobs Logo

Analytics Engineer

licornesociety.com Logo

Licorne Society

Location Icon

Emplacement:
France

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

35000.00 - 50000.00 EUR / Année
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

L’Analytics Engineer structure, transforme et optimise les données pour les rendre accessibles et exploitables par les équipes métier, en alliant ingénierie des données et analytique.

Responsabilités:

  • Créer des modèles de données clairs et scalables pour les analystes et les équipes métier
  • Automatiser et industrialiser les flux de données pour assurer leur fiabilité
  • Collaborer avec les Data Analysts et Data Scientists pour faciliter l'accès aux insights
  • Assurer la qualité, la gouvernance et la documentation des données
  • Utiliser SQL, dbt, Python et outils cloud (BigQuery, Snowflake, Redshift) pour transformer et gérer la data

Exigences:

  • Maîtrise du SQL avancé (modélisation, optimisation des requêtes)
  • ETL/ELT & pipelines de données (Airflow, dbt, Fivetran, Talend)
  • Gestion des data warehouses (BigQuery, Snowflake, Redshift)
  • Langages de programmation (Python, parfois Java/Scala) pour l’automatisation
  • Architecture et modélisation des données (modèles en étoile, normalisation)
  • Compréhension des besoins business et traduction en solutions data
  • Collaboration avec les Data Analysts & Data Scientists pour optimiser l’accès aux insights
  • Data gouvernance & qualité des données (bonnes pratiques de documentation, monitoring, versioning)
  • Travail en équipe avec les ingénieurs, analystes et métiers
  • Autonomie et rigueur dans la gestion des flux et process data
  • Capacité à vulgariser la data pour les équipes non techniques

Souhaitable:

  • Expérience en data engineering, analytics ou BI dans un environnement data-driven
  • Veille technologique & networking : suivre des experts et communautés comme Locally Optimistic, dbt Slack, DataTalks.Club

Informations supplémentaires:

Offre publiée:
23 décembre 2025

Type de travail:
Télétravail
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Analytics Engineer

Data Analytics Engineer

Visian recrute un·e Data Analytics Engineer Confirmé·e. Visian est une entrepris...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
40000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme d’ingénieur requis
  • 4 à 5 ans d’expérience dans un rôle de Data Analyst ou Data Analytics Engineer
  • Maîtrise de SQL pour la manipulation et la transformation de données
  • Bonne connaissance de Python pour l’analyse et l’automatisation des workflows
  • À l’aise avec des outils de data visualisation tels que Tableau, Power BI, Data Studio ou Looker
  • Expérience avec des outils ETL comme Airflow, Talend, Dataiku, dbt, etc., ainsi que des solutions de data catalog (Alation, Collibra, Atlan…)
  • Autonomie, rigueur et forte appétence pour la qualité et la fiabilité des données
  • Français et Anglais obligatoires
Responsabilités
Responsabilités
  • Concevoir, maintenir et optimiser des pipelines de données pour garantir la qualité et la fiabilité des analyses
  • Collecter, transformer et structurer des données issues de diverses sources pour les rendre exploitables par les équipes métiers
  • Créer et maintenir des tableaux de bord et rapports à forte valeur ajoutée pour les équipes opérationnelles et stratégiques
  • Assurer la cohérence et la documentation des jeux de données via des outils de data catalog et de data gouvernance
  • Collaborer étroitement avec les équipes de data engineering, produit et métiers pour comprendre les besoins et fournir des réponses analytiques pertinentes
  • Participer à la mise en place d’outils ETL et à l’automatisation des traitements pour fiabiliser les flux de données
  • Identifier et analyser les anomalies ou incohérences de données, tout en proposant des plans d’amélioration
  • Être force de proposition sur les bonnes pratiques de visualisation, de modélisation et d’organisation des données
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Stagiaire Analytics Engineer

Arkhn accompagne les établissements et les acteurs de la santé dans l’accès, la ...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
vo2-group.com Logo
VO2 Group
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Etudiant·e en école d’ingénieur ou Master en informatique
  • Organisé·e, rigoureux·se, et à l’aise pour communiquer avec des profils variés
  • Expérience avec des bases de données relationnelles
  • Maîtrise de SQL et Python
  • Goût pour le retro-engineering des bases de données
  • Connaissances de base en Git
  • Maîtrise de l’anglais
Responsabilités
Responsabilités
  • Explorer, comprendre et modéliser des données médicales complexes, dans des domaines cliniques variés
  • Traduire ces modèles vers des standards d’interopérabilité reconnus (FHIR, OMOP…)
  • Documenter les modèles en étant attentif·ve à la qualité, la cohérence et la compréhension des données
  • Appliquer les bonnes pratiques d’ingénierie logicielle au code analytique (tests, versioning, CI/CD, documentation)
  • Temps plein
Lire la suite
Arrow Right

Architecte Data Microsoft Fabric

Inetum est une entreprise de services numériques agile et innovante, acteur mond...
Emplacement
Emplacement
Maroc , Casablanca
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 en informatique, data, ingénierie ou école d’ingénieur
  • Certifications appréciées : Microsoft Certified: Fabric Analytics Engineer Associate, Azure Data Engineer, Power BI Data Analyst
  • Maîtrise de Microsoft Fabric (OneLake, Lakehouse, Data Pipelines, Dataflows, Notebooks, Warehouse…)
  • Excellente connaissance de Power BI, DAX, Data Modeling
  • Solide culture Cloud : Azure Data Services (Synapse, Azure Data Lake, Azure SQL, Azure Purview…)
  • Notions avancées en Spark, T-SQL, Python ou Scala
  • Connaissance des principes DataOps / DevOps dans un environnement cloud
  • Sécurité et gestion des identités dans l’écosystème Microsoft
Responsabilités
Responsabilités
  • Concevoir l’architecture cible d’un écosystème Data autour de Microsoft Fabric : ingestion, stockage, transformation, modélisation et exposition de la donnée
  • Définir les standards d’architecture (données, flux, sécurité, modèles sémantiques) en lien avec les parties prenantes Data (Data Engineers, Data Stewards, BI Analysts…)
  • Accompagner l’intégration de données multi-sources (ERP, CRM, APIs, fichiers, bases externes…) via Dataflows Gen2 ou Notebooks (Spark)
  • Superviser le modèle de gouvernance des données (catalogue, qualité, ownership) en s’appuyant sur Purview si déployé
  • Optimiser l’usage de Power BI (Fabric Capacity, modèle sémantique, DAX) pour répondre aux enjeux de self-service et de performance
  • Collaborer avec les équipes Infrastructure, Sécurité et Cloud pour garantir la conformité RGPD, la sécurité des accès (Azure AD, RBAC, sécurité au niveau des lignes…)
  • Contribuer à la mise en place de l’industrialisation : CI/CD des artefacts Data (pipelines, notebooks, datasets…), DataOps, automatisation
  • Assurer une veille technologique et un rôle de référent dans l’écosystème Fabric et Power Platform
  • Temps plein
Lire la suite
Arrow Right

Analytics Engineer

L’équipe Data apporte des solutions aux équipes internes (pour mieux comprendre ...
Emplacement
Emplacement
France , Saint-Herblain
Salaire
Salaire:
Non fourni
balzac-paris.com Logo
Balzac Paris
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 5 ans d’expérience sur un poste similaire
  • Expérience avérée en transformation des données et modélisation
  • Maîtrise de DBT obligatoire
  • Bon communicant, proactif et force de proposition
Responsabilités
Responsabilités
  • Développer ta connaissance des données RCA
  • Assister les métiers (Produit, Commerce et Service Client) dans leur compréhension de l’usage des produits de l’entreprise
  • Imaginer et déployer les produits data à destination de nos clients
  • En lien avec les Data Engineer, concevoir et exécuter les transformations de données
  • Participer à la définition des bonnes pratiques et à la mise en œuvre de l’outillage de la plateforme data (tests, observabilité, gouvernance)
  • Contribuer à la définition de la feuille de route data avec l’ensemble de l’équipe (identification, qualification et priorisation des projets métiers et techniques
Ce que nous offrons
Ce que nous offrons
  • carte SWILE 10,5€
  • participation / PEE
  • chèques cadeaux
  • CSE
  • budget loisirs
  • service de conciergerie
  • jusqu’à 3 jours de TT
  • 5 jours de RTT + 3 jours de congés offerts
  • Temps plein
Lire la suite
Arrow Right

Data Engineer confirmé(e)- Développement ETL - Services Financiers

Au sein d’une Data Factory, vous êtes pleinement impliqué(e) dans toutes les pha...
Emplacement
Emplacement
France , Villeneuve-d'Ascq
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d'une formation supérieur en informatique type Bac + 5 (école ingénieur, université ou équivalent)
  • Expérience significative en data engineer
  • Maîtrise des technologies de bases de données Relationnelles et NoSQL
  • Maîtrise d’au moins un outil d’ETL/ELT (Stambia, Informatica, Datastage, etc.)
  • Maîtrise des technologies de traitement distribué de données (Spark, Hadoop)
  • Maîtrise d’au moins un framework de streaming de données (Kafka, RabbitMQ, etc.)
  • Maîtrise de chaines CI/CD et de des bonnes pratiques de DataOps
  • Maîtrise de solution de Virutualisation de données (Denodo, Dremio, etc.)
  • Maîtrise d’au moins un environnement cloud public ou privé (Azure, AWS, Outscale, etc.)
  • Compétences en autonomie, adaptabilité et communication
Responsabilités
Responsabilités
  • Travailler avec le client pour évaluer, concevoir, déployer, améliorer et maintenir les pipelines de données
  • S'assurer que les pipelines de données créés sont résilients, sécurisés et accessibles
  • Définir le modèle opérationnel pour monitorer et supporter les pipelines de données
  • Fournir une expertise à nos clients sur leurs données pour assurer leur optimisation et leur sécurité par rapport à leurs besoins
  • Apporter un savoir en gestion de la qualité et la gouvernance de la donnée pour assurer le suivi de la conformité à la gouvernance de la donnée
  • Faire de la veille technologique dans le domaine afin d’enrichir les roadmaps technologiques et fournir des solutions modernes à nos clients
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu'à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d'intéressement
  • Primes vacances
  • Prime cooptation
  • Accompagnement individualisé avec un mentor que vous choisissez
  • Opportunités de carrières multiples (plus de 50 métiers)
  • Plusieurs centaines de formations accessibles en toute autonomie depuis l'app mobile avec Sopra Steria Academy
  • Temps plein
Lire la suite
Arrow Right

Site Reliability Engineer

Sopra Steria subsidiary CS specializes in critical systems design, integration, ...
Emplacement
Emplacement
France , Le Plessis-Robinson
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • At least 6 years of experience including 3 years in Azure/SRE
  • proficiency in Python
  • ability to design and execute Chaos Engineering scenarios
  • expertise in DevOps tools (Terraform, Ansible)
  • mastery of Azure Monitor
  • excellent oral communication skills
  • sense of service
  • ability to work in a team
  • proactive and autonomous.
Responsabilités
Responsabilités
  • Define and implement observability mechanisms (Azure Monitor, KQL, Application Insights, Log Analytics, Container Insights) and multi-level alerting
  • set up dashboards and SLI/SLO/SLA for proactive supervision
  • contribute to resilience efforts (backups/restorations, DRP, regular tests)
  • execute scenarios of Chaos Engineering
  • optimize incident management (runbooks, Status Page, Teams/Jira webhooks, post-mortem)
  • automate via Terraform, Ansible, and CI/CD pipelines
  • propose solutions using AIOps/GenAI (observability, remediation).
Ce que nous offrons
Ce que nous offrons
  • Enriching employee experience with flexibility, autonomy, and well-being
  • comprehensive onboarding program
  • academy for skill development and career growth
  • strong societal commitment supporting over 3000 associations
  • active disability and inclusion policy
  • inspiring diversity initiatives.
  • Temps plein
Lire la suite
Arrow Right

Data Engineer

Stage de Data Engineer. Participation aux étapes d'un projet (conception, réalis...
Emplacement
Emplacement
France , Toulouse
Salaire
Salaire:
Non fourni
beamy.io Logo
Beamy
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • De formation Bac+5 (école d’Ingénieurs ou Université)
  • Sensibilité aux sujets liés à la Data
  • Connaissances générales autour de la Data
  • Connaissances des environnements techniques ou spécialisation sur l’une des technologies présentées
  • Rigueur
  • Adaptabilité
  • Proactivité
  • Collaboration
  • Analyse
Responsabilités
Responsabilités
  • Conception détaillée
  • Réalisation, développements
  • Tests unitaires et intégration
  • Mise à jour de la documentation technique
  • Application des normes qualité
  • Étude, conception et développement d’une solution industrielle ou innovante visant à développer nos offres de services autour des principales solutions Data du marché (Data Intégration, Data management, Data Visualisation, Cloud, Big Data, Analytics)
Ce que nous offrons
Ce que nous offrons
  • Projets d'envergure en lien direct avec ta formation et ton développement professionnel
  • Suivi régulier avec ton tuteur
  • Prise en charge jusqu'à 100% des transports en commun
  • Tickets restaurant
  • Moments de convivialité
  • Possibilité de poursuivre en CDI
  • Entre 2-3 jours de télétravail
  • Plan de développement professionnel
  • Remboursement au delà des 50%
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right