CrawlJobs Logo

AI Data Platform Engineer Intern

doctolib.fr Logo

Doctolib

Location Icon

Emplacement:
France , Levallois-Perret

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Join Doctolib’s Data Platform Engineering team to build the first Minimum Viable Product (MVP) of an AI‑enhanced status page for our new data platform on Google Cloud Platform (GCP), in a data mesh context. You’ll turn scattered platform signals into a single, elegant interface that gives every Doctoliber simple, actionable visibility into services and data products (availability, freshness/quality, costs, ownership). We could leverage AI agents to enable natural-language querying, navigation and troubleshooting.

Responsabilités:

  • Contribute to migration from AWS to GCP and rollout of decentralized data product approach
  • Build MVP interface (graphical user interface and/or agent) providing service/pipeline overview, health, SLOs, costs for tech and catalog view, data product status, resources and ownership for data/business
  • Lead discovery with stakeholders (interviews, workshops), propose UX, define architecture, implement backend/API and frontend, and document it
  • Start with reduced 'data products' scope and prepare path to scale

Exigences:

  • Final-year student (engineering school/university) in Computer Science / Data
  • Solid foundations in software development (Python or TypeScript/JS)
  • Basics of APIs and web frontends
  • Interest in data platforms, metadata, data quality/freshness and observability
  • Product/UX mindset: collaborative, autonomous and rigorous

Souhaitable:

Familiarity with GCP, data mesh, lineage/catalog, or practical exposure to building simple agents or Natural Language Query over structured data

Ce que nous offrons:
  • Meal vouchers worth €8.50 per day, with €4.50 covered by Doctolib
  • 3-month onboarding program including Doctolib Academy and various trainings (languages, soft skills, technical skills)
  • Works council subsidy for partial reimbursement of memberships to sports or leisure activities
  • 50% reimbursement of public transportation subscription costs

Informations supplémentaires:

Offre publiée:
08 décembre 2025

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour AI Data Platform Engineer Intern

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Cloud Automation & Data Engineer

Pour le compte d’un grand groupe industriel international nous recherchons un pr...
Emplacement
Emplacement
France , Aix-en-Provence
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d'un Bac+5 et délivré(e) d'une école d'Ingénieur(e) ou équivalent
  • Au moins 5 ans d'expérience professionnelle dans une fonction similaire
  • Expertise AWS (infrastructure et services data)
  • Infrastructure as Code : Terraform
  • DevSecOps & CI/CD
  • Conteneurisation et orchestration (Docker, Kubernetes)
  • Architectures serverless et microservices
  • Scripting et développement : Python, Bash, SQL
  • Data engineering : ETL/ELT, data modeling, data lifecycle
  • Gouvernance et qualité de la donnée
Responsabilités
Responsabilités
  • Automatiser et fiabiliser les infrastructures cloud et les services data
  • Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps
  • Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes
  • Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering
  • Concevoir et mettre en œuvre d’infrastructures cloud as code (Terraform)
  • Automatiser du provisioning et du cycle de vie des ressources cloud AWS
  • Optimiser des environnements cloud (scalabilité, disponibilité, performance)
  • Automatiser les services data AWS (S3, Glue, Kinesis, etc.)
  • Industrialiser et superviser des pipelines data
  • Mettre en place et améliorer les pipelines CI/CD
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu'à 2 jours par semaine
  • Forfait avantages intéressants : une mutuelle, un CSE, des titres restaurants, un accord d'intérêt, des primes vacances et cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Des centaines de formations pour développer vos compétences et évoluer au sein du Groupe
  • Plateformes de formations en autonomie pour préparer vos certifications et accompagner votre développement personnel
  • Possibilité de s'engager auprès de notre fondation ou de notre partenaire « Vendredi »
  • Opportunité de rejoindre le collectif Tech'Me UP (formations, conférences, veille, et bien plus encore)
  • Entreprise certifiée Great Place To Work
  • Événements par an organisés afin de nous rassembler et partager des moments de convivialité : afterworks, petits déjeuners, challenges sportifs et e-sportifs, communautés techniques
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

Vous êtes un Data Engineer expérimenté et vous souhaitez transformer la donnée b...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
itlink.fr Logo
IT Link
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • BAC +5
  • > 5 ans
  • 5 à 10 ans d'expérience en Data Engineering
  • maîtrise parfaite de Python, SQL et l'environnement Databricks
  • notions de RPA ou de Power Platform sont un vrai plus
  • excellent relationnel
  • véritable culture industrielle et curiosité pour le secteur automobile/poids lourds
  • niveau d'anglais courant
Responsabilités
Responsabilités
  • Cadrer le besoin : S'immerger en atelier ou en bureau d'études pour comprendre les problématiques métiers réelles
  • Concevoir les pipelines End-to-End : Créer des flux de données automatisés (RPA) et industrialiser les architectures sous Databricks
  • Garantir la qualité : Assurer l'intégrité, la validité et la non-redondance des données stockées
  • Optimiser l'analytique : Améliorer les requêtes SQL complexes pour booster les rapports Power BI existants
  • Mentorer : Accompagner la montée en compétence d'un Data Engineer junior en interne
  • Rayonner à l'international : Collaborer avec des équipes basées en Suède et en Inde
Ce que nous offrons
Ce que nous offrons
  • Nursery places
  • Restaurant title
  • CSE (Social and Economic Committee)
  • Housing Action
  • Transport 100% covered
  • Blablacar Daily
  • Sustainable Mobility Package
  • Telework collective agreement
  • Handicap
  • Health
  • Temps plein
Lire la suite
Arrow Right

Gtm Engineer Intern

As a GTM Engineer Intern, you will help design and build the automated systems t...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
1200.00 EUR / Mois
balzac-paris.com Logo
Balzac Paris
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Strong interest in data, automation, and GTM operations
  • Experience with data enrichment tools such as Clay or ability to quickly learn new tools
  • Understanding of CRM fundamentals such as leads, lifecycle stages, pipeline, routing, and attribution (HubSpot knowledge is a plus)
  • Comfortable building or analysing automated workflows using tools like n8n, Make, or similar platforms
  • Confident using Google Sheets or Excel for data cleaning, logic building, and performance tracking
  • Understand core revenue metrics such as pipeline generation, conversion rates, CAC, and ROI, and can connect technical work to business outcomes
  • Communicate clearly and can explain technical decisions to Sales or Marketing stakeholders in a simple and structured way
Responsabilités
Responsabilités
  • Build and optimise automated workflows for lead generation, enrichment, and CRM updates
  • Improve reporting and dashboards used by GTM stakeholders
  • Troubleshoot data quality, enrichment, and integration challenges
  • Collaborate closely with Sales and Marketing to translate business needs into scalable systems
Ce que nous offrons
Ce que nous offrons
  • Beautiful offices in the heart of Paris (9ᵉ arrondissement)
  • Flexible remote work options
  • Top-notch tools to help you do your best work
  • 50% Navigo reimbursement for public transport
  • Sustainable lunch vouchers via Ekip
  • Partial coverage of your Gymlib subscription
  • A culture of autonomy, transparency, and collaboration with a team of highly talented, committed people
  • Temps plein
Lire la suite
Arrow Right

Analytics Engineer Intern - B2B Master Data

En tant que stagiaire Analytics Engineer au sein de l’équipe B2B Master Data de ...
Emplacement
Emplacement
France , Levallois-Perret
Salaire
Salaire:
Non fourni
vo2-group.com Logo
VO2 Group
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Disponible pour un stage de 6 mois à partir de juillet 2026
  • Maîtrise de SQL et compréhension des fondamentaux du data modeling
  • Solide pratique de Python appliquée à l’ingénierie des données
  • Communication claire en anglais et en français, à l’écrit comme à l’oral
  • Être organisé·e, proactif·ve et à l’aise pour collaborer en transverse avec des parties prenantes non techniques
Responsabilités
Responsabilités
  • Développement de pipelines de données: Concevoir et mettre en place des flux de données automatisés pour synchroniser et enrichir notre B2B Master Data dans Salesforce
  • Observabilité et fiabilité: Mettre en place la supervision de la qualité, de la fraîcheur et de la lignée des données afin d’identifier et de corriger proactivement les problèmes
  • Excellence logicielle: Appliquer les bonnes pratiques CI/CD à vos workflows data pour garantir un code de haute qualité et des déploiements fluides
  • Analyser, concevoir et construire des solutions pour améliorer la qualité des données et résoudre les problèmes opérationnels signalés par nos équipes Sales, Marketing et Ops
Ce que nous offrons
Ce que nous offrons
  • Mutuelle santé prise en charge à 100%
  • RTT / Jour de repos
  • Subventions CSE (Sport, Culture,...)
  • Afterworks, Déjeuners d'équipe, etc.
  • Plan de développement professionnel
  • Solution de prévention santé mentale
  • Temps plein
Lire la suite
Arrow Right

Consultant Senior MLOPS Engineer

Dans le cadre de nos projets Data & IA, nous recherchons un Consultant Senior ML...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, data science ou équivalent
  • minimum 6 ans d'expérience en Data/IA dont 3 ans en MLOps
  • expérience confirmée en mise en production et industrialisation de modèles à grande échelle
  • maîtrise des contraintes de performance, scalabilité et coûts en environnement cloud
  • leadership technique pour encadrer des profils juniors
  • capacité à travailler en mode agile avec rigueur et sens de l'organisation
  • excellentes compétences en communication et vulgarisation technique
  • force de proposition, curiosité technologique et sensibilité aux enjeux d'éthique, d'explicabilité et de durabilité des solutions IA
  • Langages & DevOps : Python, Spark, Bash, Git, GitLab CI/Jenkins, Docker, Kubernetes
  • expérience confirmée sur au moins un cloud (AWS Sagemaker, Azure ML, GCP Vertex AI) ou une Data Platform comme Databricks, Snowflake
Responsabilités
Responsabilités
  • Concevoir et mettre en place des pipelines CI/CD pour les modèles de machine learning et deep learning
  • Déployer et maintenir des environnements de production pour l’IA sur cloud (AWS, Azure ou GCP) ou on-premise
  • Mettre en place des solutions de monitoring et d’alerte (performance, dérive des données, disponibilité)
  • Standardiser et automatiser les workflows ML (data preprocessing, entraînement, déploiement, monitoring)
  • Travailler en collaboration avec les data scientists et data engineers pour assurer la qualité et la robustesse des modèles déployés
  • Intégrer des pratiques de sécurité, conformité RGPD et bonnes pratiques de gouvernance des données
  • Contribuer à la veille technologique et proposer des améliorations continues sur les architectures et process IA
  • Participation à des phases d’avant-vente : rédaction de la réponse technique (sur la partie MLOps), participation à la soutenance client
  • Benchmark de solutions et conseil auprès de nos clients sur les solutions technologiques à adopter, en lien avec leurs besoins
  • Réalisation de POC (Proof Of Concept)
Ce que nous offrons
Ce que nous offrons
  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications)
  • Locaux modernes en centre-ville
  • Télétravail jusqu’à 5 jours selon les missions, prime d’équipement de 100€
  • Mobilité en France et à l’étranger
  • Tickets restaurant
  • prime vacances
  • 50% transport (abonnement transport public)
  • mutuelle
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Actionnariat salarié
  • Temps plein
Lire la suite
Arrow Right