CrawlJobs Logo

Data Engineer GCP

amaris.com Logo

Amaris Consulting

Location Icon

Ubicación:
Mexico , Mexico City

Category Icon

Job Type Icon

Tipo de contrato:
No proporcionado

Salary Icon

Salario:

No proporcionado
Guardar empleo
Save Icon
Aplicar al puesto

Descripción del trabajo:

Únete a nuestro equipo como Ingeniero/a de Datos GCP y lleva tu carrera al siguiente nivel construyendo pipelines de datos escalables y robustos en Google Cloud Platform para convertir información en insights accionables. Trabajarás en un entorno internacional y colaborativo, participando en proyectos de alto impacto donde podrás diseñar flujos de datos confiables, optimizar el procesamiento de grandes volúmenes y asegurar la disponibilidad de datos de calidad para la toma de decisiones.

Responsabilidades:

  • Diseñar y construir pipelines batch y streaming con Cloud Dataflow, Cloud Functions y Cloud Run
  • Implementar ingestas automatizadas hacia BigQuery garantizando calidad y disponibilidad
  • Monitorear y optimizar costos y rendimiento de los servicios de GCP
  • Modelar y optimizar tablas y vistas en BigQuery para análisis ad-hoc y reportes
  • Aplicar particionamiento, clustering y políticas de retención eficientes
  • Implementar validaciones automáticas de calidad de datos
  • Exponer datos mediante APIs RESTful o GraphQL (FastAPI, Cloud Functions)
  • Colaborar con equipos front-end para definir contratos de datos eficientes
  • Trabajar con stakeholders internacionales en inglés para captar requisitos y presentar soluciones
  • Documentar arquitecturas, pipelines y procesos de gobernanza

Requisitos:

  • 3+ años como Data Engineer con foco en Google Cloud Platform
  • Dominio de BigQuery, Cloud Dataflow, Pub/Sub y Cloud Functions
  • Sólidos conocimientos de SQL avanzado y optimización de consultas
  • Inglés fluido (C1-C2) para comunicación oral y escrita con equipos globales
  • Experiencia en Python o Java para procesamiento de datos

Deseable:

Exposición a APIs REST/GraphQL y orquestación con Cloud Composer

Lo que ofrecemos:
  • Mejora tus habilidades a través de nuestro catálogo de la Academia Tecnológica, Udemy, clases de idiomas, webinars y talleres
  • Acceso a nuestro programa WeCare, que brinda apoyo a los empleados en situaciones críticas

Información adicional:

Oferta publicada:
25 de marzo de 2026

Compartir enlace de empleo:

¿Buscas más oportunidades? Busca otras ofertas de trabajo que coincidan con tus habilidades e intereses.

Briefcase Icon

Empleos similares para Data Engineer GCP

Data Engineer (Google Cloud Platform)

¿Quieres llevar tus habilidades en Data, Analytics & IA al siguiente nivel? Somo...
Ubicación
Ubicación
Spain , Madrid; Barcelona; Santiago de Compostela; Valencia
Salario
Salario:
No proporcionado
sdggroup.com Logo
SDG
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Estudios en Ingeniería Informática, Telecomunicaciones, Ciencia de Datos, Industriales o Ciclo Superior equivalente
  • Experiencia de al menos 3 años en plataformas de datos, participando en proyectos end-to-end de Data & Analytics
  • Conocimientos prácticos en SQL, ETL y modelado de datos en entornos cloud, especialmente en GCP
  • Habilidades comunicativas, analíticas y con orientación a negocio
Responsabilidades
Responsabilidades
  • Diseñar y desarrollar pipelines de datos utilizando herramientas de GCP
  • Trabajar con bases de datos SQL y herramientas ETL
  • Construir y optimizar modelos de datos en BigQuery
  • Desarrollar procesos de ingesta y transformación de datos
  • Colaborar en la definición de arquitecturas cloud modernas de datos
  • Estar al tanto de las últimas tendencias tecnológicas
  • Asistir a reuniones con el cliente
  • Participar en la formación interna y externa
  • Integrarse en la cultura SDG
  • Participar en el día a día de las dinámicas de la compañía
Lo que ofrecemos
Lo que ofrecemos
  • Jornada intensiva en julio y agosto
  • Apoyo económico para el teletrabajo
Leer más
Arrow Right

Data Engineer - Python y APIs

Buscamos un/a Data Engineer con experiencia en Python (Pyspark) y APIs, para uni...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • 3+ años de experiencia en ingeniería de datos o un puesto similar
  • Proficiencia en programación Python, desarrollo de API y SQL
  • Fuertes conocimientos de modelado de datos, procesos ETL y conceptos de almacenamiento de datos
  • Experiencia con tecnologías de big data (por ejemplo, Hadoop, PySpark) y plataformas en la nube (por ejemplo, AWS, Azure, GCP)
  • Familiaridad con sistemas de control de versiones, preferiblemente Git
  • Fuertes habilidades analíticas y de resolución de problemas con atención al detalle
  • Conocimiento de las mejores prácticas de seguridad de datos y de la normativa pertinente
Responsabilidades
Responsabilidades
  • Desarrollar y mantener pipelines de datos escalables utilizando Python y varias APIs
  • Diseñar e implementar una infraestructura de datos robusta y eficiente.
  • Crear y optimizar consultas SQL para el análisis y la gestión de datos complejos
  • Emplear tecnologías de big data para procesar y analizar grandes conjuntos de datos
  • Garantizar la seguridad de los datos y el cumplimiento de la normativa y las mejores prácticas pertinentes
  • Participar en revisiones de código y contribuir a la mejora de las prácticas de ingeniería de datos
  • Mantenerse al día de las tecnologías emergentes y las tendencias del sector en ingeniería de datos
Lo que ofrecemos
Lo que ofrecemos
  • 23 días de vacaciones
  • Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más!
  • Seguro de vida y de accidentes
  • Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
  • Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas
  • Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento.
  • Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido!
  • Compañerismo y buen ambiente, el poder de la unión lo tenemos presente.
  • Tiempo completo
Leer más
Arrow Right

Data Engineer

Somos un reconocido líder europeo en consultoría, servicios digitales y desarrol...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Mínimo 2 años de experiencia como analista de datos, preferiblemente en el sector financiero
  • Al menos 1 año de experiencia en testing
  • Conocimientos técnicos sólidos en SQL: consultas, limpieza y transformación de datos
  • Herramientas de visualización: Power BI, Tableau o Qlik
  • Almacenes de datos, pipelines ETL y plataformas en la nube: Azure, AWS o GCP
  • Redacción de especificaciones funcionales para sistemas de información
  • Inglés B2 o superior
  • Disponibilidad para acudir en modalidad híbrida a oficinas en Madrid
Lo que ofrecemos
Lo que ofrecemos
  • Contrato indefinido y jornada completa
  • 23 días de vacaciones
  • Formación continua: competencias técnicas, transversales y de idiomas, acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y más
  • Seguro de vida y de accidentes
  • Posibilidad de acogerte a retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
  • Acceso a Privilege Club con descuentos en marcas principales
  • Onboarding personalizado y detallado
  • Oficina con espacios reservados al ocio
  • Compañerismo y buen ambiente
  • Desarrollo de carrera profesional con un plan personalizado
  • Tiempo completo
Leer más
Arrow Right

Data Engineer - Scala y Pyspark

En Sopra nos gustaría incorporar a un par de Data Engineer con experiencia en Sc...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Más de 3 años de experiencia como ingeniero de datos o en un puesto similar
  • Gran dominio del lenguaje de programación Scala y PySpark
  • Amplia experiencia con tecnologías de big data, en particular Apache Spark y el ecosistema Hadoop
  • Sólidos conocimientos de bases de datos SQL y NoSQL
  • Experiencia en modelado de datos, procesos ETL y conceptos de almacenamiento de datos
  • Experiencia con sistemas de control de versiones, preferiblemente Git
  • Familiaridad con plataformas en la nube como AWS, Azure o GCP
  • Conocimiento de las mejores prácticas de seguridad y privacidad de datos
Responsabilidades
Responsabilidades
  • Diseñar, implementar y mantener canalizaciones de datos e infraestructuras robustas para apoyar los procesos de toma de decisiones basados en datos de nuestra organización
  • Desarrollar y optimizar los procesos ETL utilizando Scala y PySpark para manejar el procesamiento de datos a gran escala
  • Colaborar con científicos y analistas de datos para comprender los requisitos de los datos y entregar conjuntos de datos de alta calidad
  • Construir y mantener canalizaciones de datos escalables utilizando Apache Spark y otras tecnologías de big data
  • Implementar controles de calidad de datos y sistemas de supervisión para garantizar la precisión y fiabilidad de los datos
Lo que ofrecemos
Lo que ofrecemos
  • Contrato indefinido y jornada completa
  • 23 días de vacaciones
  • Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más!
  • Seguro de vida y de accidentes
  • Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
  • Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas
  • Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento
  • Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido!
  • Compañerismo y buen ambiente, el poder de la unión lo tenemos presente
  • Tiempo completo
Leer más
Arrow Right

Specialist Data Engineer

El Specialist Data Engineer formará parte del equipo de Business Intelligence, m...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
vodafone.com Logo
Vodafone
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Experiencia en GCP, especialmente: BigQuery
  • Experiencia en GCP, especialmente: Cloud Composer / Airflow
  • Experiencia en GCP, especialmente: Dataflow / Apache Beam
  • Experiencia en GCP, especialmente: Cloud Storage
  • Sólidos conocimientos de SQL (tunning, modelado, queries complejas)
  • Experiencia en procesos ETL/ELT y manejo de grandes volúmenes de datos
  • Conocimientos de Python aplicados al tratamiento de datos
  • Control de versiones (Github)
  • Grado en Ingeniería, Matemáticas, Estadística, Economía, Ciencia de Datos o similar
Responsabilidades
Responsabilidades
  • Mantener y mejorar los procesos ETL/ELT existentes en GCP
  • Monitorizar la ejecución de pipelines y resolver incidencias en tiempo y forma
  • Optimizar costes y rendimiento en servicios de GCP (BigQuery, Cloud Storage, Dataflow, Composer…)
  • Gestionar y evolucionar modelos de datos y estructuras de almacenamiento
  • Colaborar con analistas de negocio, BI developers y stakeholders para entender necesidades y traducirlas en soluciones técnicas
  • Desplegar buenas prácticas de calidad, seguridad y versionado de datos
  • Automatizar procesos y tareas operativas siempre que sea posible
  • Implementar alertas, métricas y herramientas de observabilidad
Lo que ofrecemos
Lo que ofrecemos
  • Trabajo flexible: 60% desde casa y 40% desde la oficina, ¡con horario flexible
  • 20 días adicionales de teletrabajo: Trabaja desde cualquier punto de España
  • 25 días de vacaciones: Además, disfruta de los días 24 y 31 de diciembre libres, y tienes la opción de comprar hasta 10 días adicionales
  • Tickets restaurante: Adicionales a la retribución fija y plan de remuneración flexible
  • Seguro de salud gratuito: Cobertura con Adeslas, seguro de vida y un programa integral de gestión de cuidado de la salud y bienestar, tanto físico como mental
  • Opción de plan de pensiones. Asegura tu futuro con nuestras opciones de plan de pensiones
  • 3 día de voluntariado al año: Dedica tiempo a proyectos de voluntariado con estos días adicionales
  • Desarrollo de carrera y formación: Acceso a una plataforma de desarrollo de habilidades basada en Inteligencia Artificial y contenidos de aprendizaje de Skillsoft, MIT Horizon, Harvard y más
  • App para la gestión digital. Organiza tu día a día en la oficina de manera sencilla con nuestra app
  • Tiempo completo
Leer más
Arrow Right

Data Engineer

Buscamos un/a Data Engineer (perfil mid/senior) para unirse al equipo de Glintt ...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
38000.00 - 40000.00 EUR / Año
glinttglobal.com Logo
Glintt
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • 3–5 años de experiencia como Data Engineer
  • Dominando SQL y Python
  • Experiencia en procesos de datos end‑to‑end, tanto batch como streaming
  • Experiencia en Data Engineering (3–5 años)
  • Participación en el diseño de flujos y arquitecturas de datos (con apoyo de perfiles senior)
  • Conocimientos de Data Warehouse, Data Lake y Lakehouse
  • Experiencia en Kafka
  • Experiencia en GCP, AWS o Azure (mínimo uno)
  • Experiencia con al menos dos herramientas de BI: Tableau, Power BI, Apache Superset, QlikView, Qlik Sense
  • Experiencia con SQL Server, PostgreSQL y Elasticsearch
Responsabilidades
Responsabilidades
  • Diseñarás y mantendrás pipelines de datos en batch y streaming (tiempo real) utilizando Kafka, dentro de entornos cloud (GCP, AWS o Azure)
  • Desarrollarás procesos de ingesta y transformación con SQL y Python
  • Colaborarás en la creación de dashboards
  • Trabajarás con SQL Server, PostgreSQL y Elasticsearch
  • Documentarás y coordinarás tus tareas con el equipo utilizando Git, Confluence y Jira
Lo que ofrecemos
Lo que ofrecemos
  • bonus anual
  • Increíble ambiente de trabajo
  • Plan de carrera adaptado a tus competencias
  • Tarjeta de retribución flexible
  • Seguro médico privado
  • 23 días de vacaciones + jornada intensiva en verano
  • Tiempo completo
Leer más
Arrow Right

Data Engineer (dbt)

¿Cuál será tu misión? ✍ Serás parte activa del equipo en el desarrollo y ejecuc...
Ubicación
Ubicación
Spain , Madrid; Barcelona; Santiago de Compostela; Valencia
Salario
Salario:
No proporcionado
sdggroup.com Logo
SDG
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Estudios en Ingeniería Informática, Telecomunicaciones, Ciencia de datos, Industriales, o contar con un Ciclo Superior u otra similar
  • Experiencia de al menos 3 años en plataformas de datos, involucradas en todas las fases de proyectos de Data & Analytics
  • Dominio avanzado de Python para el desarrollo de pipelines de ingesta, creación de modelos de dbt Python para lógica compleja
  • Experiencia sólida con dbt (modelado, tests, sources, documentación, buenas prácticas)
  • Conocimiento del uso de macros en dbt
  • Muy buen manejo de SQL y experiencia en modelado de datos analíticos
  • Uso de control de versiones con herramientas como Git (GitHub/GitLab) y flujos de CI/CD para desplegar modelos
  • Se valorará positivamente experiencia trabajando con procesos de transformación de datos (ETL/ELT) en entornos cloud (AWS, GCP o Microsoft)
  • Contar con experiencia en consultoría te permitirá integrarte con facilidad en la dinámica ágil y colaborativa de nuestra compañía
  • Habilidades comunicativas, analíticas y con orientación a negocio, para entender el contexto de los proyectos y ayudar a la toma de decisiones de nuestros clientes. Es importante demostrar una actitud proactiva y participativa
Responsabilidades
Responsabilidades
  • Serás parte activa del equipo en el desarrollo y ejecución de proyectos, colaborando en todo el proceso: definición técnico-funcional, ETL, modelado de datos, visualización y formaciones, asegurando el éxito en cada fase hasta el despliegue final
  • Trabajarás día a día con bases de datos SQL, modelando de datos con herramientas ETL y con entornos datawarehouse principalmente en el cloud (AWS, GCP o Microsoft)
  • Desarrollarás procesos de ingesta y transformación de datos de diversas fuentes (APIs, ficheros, bases de datos, flujos en streaming), integrándose en soluciones Cloud
  • Colaborarás en la definición de arquitecturas cloud, combinando servicios cloud y otros componentes de integración y automatización
  • Estarás al tanto de las últimas tendencias tecnológicas, especialmente en el ámbito de Data & Analytics, formándote de manera continua y explorando nuevas herramientas e innovaciones
  • Asistirás a reuniones con el cliente para la toma de requisitos y revisar el progreso de los proyectos, participando activamente en su día a día
  • Participarás en la formación interna y externa en las herramientas relevantes para el equipo
  • Te integrarás en la cultura de SDG, contribuyendo a un entorno colaborativo y eficiente
  • Participarás en el día a día de las dinámicas de la compañía y del equipo
Lo que ofrecemos
Lo que ofrecemos
  • Contrato indefinido
  • Jornada intensiva en julio y agosto
  • Salario competitivo según tu formación y experiencia
  • Apoyo económico para el teletrabajo
  • Tiempo completo
Leer más
Arrow Right

Cloud Analytics Platform Engineer - Gcp

¿Cuál será tu misión? ✍ Diseño y Optimización de Almacenamiento: Administrarás y...
Ubicación
Ubicación
Mexico , Ciudad de Mexico
Salario
Salario:
No proporcionado
sdggroup.com Logo
SDG
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Estudios en Ingeniería Informática, Telecomunicaciones, Ciencia de datos, Industriales, o contar con un Ciclo Superior u otra similar
  • Experiencia de 2 a 4 años en un rol similar con ecosistema GCP
  • Contar con experiencia en consultoría te permitirá integrarte con facilidad en la dinámica ágil y colaborativa de nuestra compañía
  • Conocimientos en las herramientas propias del ecosistema de GCP: BigQuery, Cloud Composer/Airflow, Cloud Storage, Dataflow, Terraform, entre otras
  • Habilidades comunicativas, analíticas y con orientación a negocio, para entender el contexto de los proyectos y ayudar a la toma de decisiones de nuestros clientes
  • Es importante demostrar una actitud proactiva y participativa
  • Como trabajamos en una empresa global, que puedas comunicarte en inglés
Responsabilidades
Responsabilidades
  • Diseño y Optimización de Almacenamiento: Administrarás y optimizarás grandes volúmenes de datos, implementando estrategias de particionamiento y clustering para garantizar consultas de alto rendimiento
  • Orquestación de Pipelines: Desarrollarás y supervisarás flujos de trabajo complejos (DAGs) asegurando que el procesamiento de datos sea puntual y resiliente
  • Ingesta y Procesamiento: Configurarás arquitecturas de procesamiento tanto en tiempo real (streaming) como por lotes (batch)
  • Automatización con Python
  • Gestión de Ciclo de Vida: Administraras el almacenamiento, configurando políticas de retención y ciclos de vida de objetos para optimizar recursos
  • Estarás al tanto de las últimas tendencias tecnológicas, especialmente en el ámbito de Data & Analytics, formándote de manera continua y explorando nuevas herramientas e innovaciones
  • Participarás en la definición y análisis funcional en estrecha colaboración con el cliente, asegurando soluciones adaptadas a sus necesidades
  • Participarás en el día a día de las dinámicas de la compañía y del equipo
  • Asistirás a reuniones con el cliente para la toma de requisitos y revisar el progreso de los proyectos, participando activamente en su día a día
Lo que ofrecemos
Lo que ofrecemos
  • Plan de carrera totalmente personalizado
  • Revisión salarial semestral
  • Smartwork (gestión del propio tiempo)
  • Contrato indefinido
  • Ayuda económica para cubrir gastos de teletrabajo
  • Tiempo completo
Leer más
Arrow Right