CrawlJobs Logo

Data Engineer GCP

amaris.com Logo

Amaris Consulting

Location Icon

Ubicación:
Mexico , Mexico City

Category Icon

Job Type Icon

Tipo de contrato:
No proporcionado

Salary Icon

Salario:

No proporcionado
Guardar empleo
Save Icon
Aplicar al puesto

Descripción del trabajo:

Únete a nuestro equipo como Ingeniero/a de Datos GCP y lleva tu carrera al siguiente nivel construyendo pipelines de datos escalables y robustos en Google Cloud Platform para convertir información en insights accionables. Trabajarás en un entorno internacional y colaborativo, participando en proyectos de alto impacto donde podrás diseñar flujos de datos confiables, optimizar el procesamiento de grandes volúmenes y asegurar la disponibilidad de datos de calidad para la toma de decisiones.

Responsabilidades:

  • Diseñar y construir pipelines batch y streaming con Cloud Dataflow, Cloud Functions y Cloud Run
  • Implementar ingestas automatizadas hacia BigQuery garantizando calidad y disponibilidad
  • Monitorear y optimizar costos y rendimiento de los servicios de GCP
  • Modelar y optimizar tablas y vistas en BigQuery para análisis ad-hoc y reportes
  • Aplicar particionamiento, clustering y políticas de retención eficientes
  • Implementar validaciones automáticas de calidad de datos
  • Exponer datos mediante APIs RESTful o GraphQL (FastAPI, Cloud Functions)
  • Colaborar con equipos front-end para definir contratos de datos eficientes
  • Trabajar con stakeholders internacionales en inglés para captar requisitos y presentar soluciones
  • Documentar arquitecturas, pipelines y procesos de gobernanza

Requisitos:

  • 3+ años como Data Engineer con foco en Google Cloud Platform
  • Dominio de BigQuery, Cloud Dataflow, Pub/Sub y Cloud Functions
  • Sólidos conocimientos de SQL avanzado y optimización de consultas
  • Inglés fluido (C1-C2) para comunicación oral y escrita con equipos globales
  • Experiencia en Python o Java para procesamiento de datos

Deseable:

Exposición a APIs REST/GraphQL y orquestación con Cloud Composer

Lo que ofrecemos:
  • Mejora tus habilidades a través de nuestro catálogo de la Academia Tecnológica, Udemy, clases de idiomas, webinars y talleres
  • Acceso a nuestro programa WeCare, que brinda apoyo a los empleados en situaciones críticas

Información adicional:

Oferta publicada:
25 de marzo de 2026

Compartir enlace de empleo:

¿Buscas más oportunidades? Busca otras ofertas de trabajo que coincidan con tus habilidades e intereses.

Briefcase Icon

Empleos similares para Data Engineer GCP

Data Engineer (Google Cloud Platform)

¿Quieres llevar tus habilidades en Data, Analytics & IA al siguiente nivel? Somo...
Ubicación
Ubicación
Spain , Madrid; Barcelona; Santiago de Compostela; Valencia
Salario
Salario:
No proporcionado
sdggroup.com Logo
SDG
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Estudios en Ingeniería Informática, Telecomunicaciones, Ciencia de Datos, Industriales o Ciclo Superior equivalente
  • Experiencia de al menos 3 años en plataformas de datos, participando en proyectos end-to-end de Data & Analytics
  • Conocimientos prácticos en SQL, ETL y modelado de datos en entornos cloud, especialmente en GCP
  • Habilidades comunicativas, analíticas y con orientación a negocio
Responsabilidades
Responsabilidades
  • Diseñar y desarrollar pipelines de datos utilizando herramientas de GCP
  • Trabajar con bases de datos SQL y herramientas ETL
  • Construir y optimizar modelos de datos en BigQuery
  • Desarrollar procesos de ingesta y transformación de datos
  • Colaborar en la definición de arquitecturas cloud modernas de datos
  • Estar al tanto de las últimas tendencias tecnológicas
  • Asistir a reuniones con el cliente
  • Participar en la formación interna y externa
  • Integrarse en la cultura SDG
  • Participar en el día a día de las dinámicas de la compañía
Lo que ofrecemos
Lo que ofrecemos
  • Jornada intensiva en julio y agosto
  • Apoyo económico para el teletrabajo
Leer más
Arrow Right

Data Engineer - Python y APIs

Buscamos un/a Data Engineer con experiencia en Python (Pyspark) y APIs, para uni...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • 3+ años de experiencia en ingeniería de datos o un puesto similar
  • Proficiencia en programación Python, desarrollo de API y SQL
  • Fuertes conocimientos de modelado de datos, procesos ETL y conceptos de almacenamiento de datos
  • Experiencia con tecnologías de big data (por ejemplo, Hadoop, PySpark) y plataformas en la nube (por ejemplo, AWS, Azure, GCP)
  • Familiaridad con sistemas de control de versiones, preferiblemente Git
  • Fuertes habilidades analíticas y de resolución de problemas con atención al detalle
  • Conocimiento de las mejores prácticas de seguridad de datos y de la normativa pertinente
Responsabilidades
Responsabilidades
  • Desarrollar y mantener pipelines de datos escalables utilizando Python y varias APIs
  • Diseñar e implementar una infraestructura de datos robusta y eficiente.
  • Crear y optimizar consultas SQL para el análisis y la gestión de datos complejos
  • Emplear tecnologías de big data para procesar y analizar grandes conjuntos de datos
  • Garantizar la seguridad de los datos y el cumplimiento de la normativa y las mejores prácticas pertinentes
  • Participar en revisiones de código y contribuir a la mejora de las prácticas de ingeniería de datos
  • Mantenerse al día de las tecnologías emergentes y las tendencias del sector en ingeniería de datos
Lo que ofrecemos
Lo que ofrecemos
  • 23 días de vacaciones
  • Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más!
  • Seguro de vida y de accidentes
  • Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
  • Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas
  • Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento.
  • Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido!
  • Compañerismo y buen ambiente, el poder de la unión lo tenemos presente.
  • Tiempo completo
Leer más
Arrow Right

Data Engineer

Somos un reconocido líder europeo en consultoría, servicios digitales y desarrol...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Mínimo 2 años de experiencia como analista de datos, preferiblemente en el sector financiero
  • Al menos 1 año de experiencia en testing
  • Conocimientos técnicos sólidos en SQL: consultas, limpieza y transformación de datos
  • Herramientas de visualización: Power BI, Tableau o Qlik
  • Almacenes de datos, pipelines ETL y plataformas en la nube: Azure, AWS o GCP
  • Redacción de especificaciones funcionales para sistemas de información
  • Inglés B2 o superior
  • Disponibilidad para acudir en modalidad híbrida a oficinas en Madrid
Lo que ofrecemos
Lo que ofrecemos
  • Contrato indefinido y jornada completa
  • 23 días de vacaciones
  • Formación continua: competencias técnicas, transversales y de idiomas, acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y más
  • Seguro de vida y de accidentes
  • Posibilidad de acogerte a retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
  • Acceso a Privilege Club con descuentos en marcas principales
  • Onboarding personalizado y detallado
  • Oficina con espacios reservados al ocio
  • Compañerismo y buen ambiente
  • Desarrollo de carrera profesional con un plan personalizado
  • Tiempo completo
Leer más
Arrow Right

Data Engineer - Scala y Pyspark

En Sopra nos gustaría incorporar a un par de Data Engineer con experiencia en Sc...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Más de 3 años de experiencia como ingeniero de datos o en un puesto similar
  • Gran dominio del lenguaje de programación Scala y PySpark
  • Amplia experiencia con tecnologías de big data, en particular Apache Spark y el ecosistema Hadoop
  • Sólidos conocimientos de bases de datos SQL y NoSQL
  • Experiencia en modelado de datos, procesos ETL y conceptos de almacenamiento de datos
  • Experiencia con sistemas de control de versiones, preferiblemente Git
  • Familiaridad con plataformas en la nube como AWS, Azure o GCP
  • Conocimiento de las mejores prácticas de seguridad y privacidad de datos
Responsabilidades
Responsabilidades
  • Diseñar, implementar y mantener canalizaciones de datos e infraestructuras robustas para apoyar los procesos de toma de decisiones basados en datos de nuestra organización
  • Desarrollar y optimizar los procesos ETL utilizando Scala y PySpark para manejar el procesamiento de datos a gran escala
  • Colaborar con científicos y analistas de datos para comprender los requisitos de los datos y entregar conjuntos de datos de alta calidad
  • Construir y mantener canalizaciones de datos escalables utilizando Apache Spark y otras tecnologías de big data
  • Implementar controles de calidad de datos y sistemas de supervisión para garantizar la precisión y fiabilidad de los datos
Lo que ofrecemos
Lo que ofrecemos
  • Contrato indefinido y jornada completa
  • 23 días de vacaciones
  • Formación continua: competencias técnicas, transversales y de idiomas. Contamos con acceso a certificaciones, formaciones de los principales Partners Tecnológicos, plataformas online y ¡mucho más!
  • Seguro de vida y de accidentes
  • Posibilidad de acogerte a nuestra retribución flexible (seguro médico, cheques guarderías, transporte, comida y formación)
  • Acceso a Privilege Club, donde encontrarás descuentos interesantes en las principales marcas
  • Onboarding personalizado y detallado. Te acompañamos en todo momento para que te sientas #soprano desde el primer momento
  • Oficina con espacios reservados al ocio. ¡Trabajo y diversión unido!
  • Compañerismo y buen ambiente, el poder de la unión lo tenemos presente
  • Tiempo completo
Leer más
Arrow Right
Nuevo

Specialist Data Engineer

El Specialist Data Engineer formará parte del equipo de Business Intelligence, m...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
No proporcionado
vodafone.com Logo
Vodafone
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Experiencia en GCP, especialmente: BigQuery
  • Experiencia en GCP, especialmente: Cloud Composer / Airflow
  • Experiencia en GCP, especialmente: Dataflow / Apache Beam
  • Experiencia en GCP, especialmente: Cloud Storage
  • Sólidos conocimientos de SQL (tunning, modelado, queries complejas)
  • Experiencia en procesos ETL/ELT y manejo de grandes volúmenes de datos
  • Conocimientos de Python aplicados al tratamiento de datos
  • Control de versiones (Github)
  • Grado en Ingeniería, Matemáticas, Estadística, Economía, Ciencia de Datos o similar
Responsabilidades
Responsabilidades
  • Mantener y mejorar los procesos ETL/ELT existentes en GCP
  • Monitorizar la ejecución de pipelines y resolver incidencias en tiempo y forma
  • Optimizar costes y rendimiento en servicios de GCP (BigQuery, Cloud Storage, Dataflow, Composer…)
  • Gestionar y evolucionar modelos de datos y estructuras de almacenamiento
  • Colaborar con analistas de negocio, BI developers y stakeholders para entender necesidades y traducirlas en soluciones técnicas
  • Desplegar buenas prácticas de calidad, seguridad y versionado de datos
  • Automatizar procesos y tareas operativas siempre que sea posible
  • Implementar alertas, métricas y herramientas de observabilidad
Lo que ofrecemos
Lo que ofrecemos
  • Trabajo flexible: 60% desde casa y 40% desde la oficina, ¡con horario flexible
  • 20 días adicionales de teletrabajo: Trabaja desde cualquier punto de España
  • 25 días de vacaciones: Además, disfruta de los días 24 y 31 de diciembre libres, y tienes la opción de comprar hasta 10 días adicionales
  • Tickets restaurante: Adicionales a la retribución fija y plan de remuneración flexible
  • Seguro de salud gratuito: Cobertura con Adeslas, seguro de vida y un programa integral de gestión de cuidado de la salud y bienestar, tanto físico como mental
  • Opción de plan de pensiones. Asegura tu futuro con nuestras opciones de plan de pensiones
  • 3 día de voluntariado al año: Dedica tiempo a proyectos de voluntariado con estos días adicionales
  • Desarrollo de carrera y formación: Acceso a una plataforma de desarrollo de habilidades basada en Inteligencia Artificial y contenidos de aprendizaje de Skillsoft, MIT Horizon, Harvard y más
  • App para la gestión digital. Organiza tu día a día en la oficina de manera sencilla con nuestra app
  • Tiempo completo
Leer más
Arrow Right

Data Engineer

Buscamos un/a Data Engineer (perfil mid/senior) para unirse al equipo de Glintt ...
Ubicación
Ubicación
Spain , Madrid
Salario
Salario:
38000.00 - 40000.00 EUR / Año
glinttglobal.com Logo
Glintt
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • 3–5 años de experiencia como Data Engineer
  • Dominando SQL y Python
  • Experiencia en procesos de datos end‑to‑end, tanto batch como streaming
  • Experiencia en Data Engineering (3–5 años)
  • Participación en el diseño de flujos y arquitecturas de datos (con apoyo de perfiles senior)
  • Conocimientos de Data Warehouse, Data Lake y Lakehouse
  • Experiencia en Kafka
  • Experiencia en GCP, AWS o Azure (mínimo uno)
  • Experiencia con al menos dos herramientas de BI: Tableau, Power BI, Apache Superset, QlikView, Qlik Sense
  • Experiencia con SQL Server, PostgreSQL y Elasticsearch
Responsabilidades
Responsabilidades
  • Diseñarás y mantendrás pipelines de datos en batch y streaming (tiempo real) utilizando Kafka, dentro de entornos cloud (GCP, AWS o Azure)
  • Desarrollarás procesos de ingesta y transformación con SQL y Python
  • Colaborarás en la creación de dashboards
  • Trabajarás con SQL Server, PostgreSQL y Elasticsearch
  • Documentarás y coordinarás tus tareas con el equipo utilizando Git, Confluence y Jira
Lo que ofrecemos
Lo que ofrecemos
  • bonus anual
  • Increíble ambiente de trabajo
  • Plan de carrera adaptado a tus competencias
  • Tarjeta de retribución flexible
  • Seguro médico privado
  • 23 días de vacaciones + jornada intensiva en verano
  • Tiempo completo
Leer más
Arrow Right

Senior Machine Learning Engineer

En SDG Group no hacemos IA por hacer, sino que somos especialistas en ello. Somo...
Ubicación
Ubicación
Spain , Barcelona; Logroño; Madrid; Santiago de Compostela; Valencia
Salario
Salario:
No proporcionado
sdggroup.com Logo
SDG
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • Formación técnica: Ingeniería Informática, Telecomunicaciones, Matemáticas, Física, Estadística o similar
  • Experiencia en IA: Desarrollo completo de modelos de Machine Learning end-to-end: desde la exploración de datos y feature engineering, hasta el entrenamiento, validación y optimización de modelos. Experiencia práctica desplegando modelos en producción y manteniéndolos en entornos reales con monitorización y reentrenamiento continuo
  • Stack técnico: Dominio de Python, scikit-learn, XGBoost, TensorFlow/PyTorch, Pandas, y experiencia práctica desplegando modelos en AWS, Azure o GCP
  • Cloud & MLOps: Experiencia real construyendo pipelines de ML en producción usando Docker, Kubernetes, Airflow, MLflow o similares
  • Mentalidad de consultoría: Orientación a cliente, resolución de problemas y capacidad de trabajar en entornos dinámicos
  • Que puedas comunicarte tanto en inglés como en castellano para participar en proyectos internacionales
Responsabilidades
Responsabilidades
  • Desarrollo de soluciones de IA end-to-end - Participarás en todo el ciclo de vida: desde la comprensión del problema de negocio, exploración y preparación de datos, desarrollo y entrenamiento de modelos, hasta el despliegue en producción y monitorización continua
  • Construcción de pipelines y arquitecturas de ML robustas - Diseñarás y desarrollarás pipelines automatizados de datos y modelos utilizando Apache Airflow, Kubeflow, MLflow, y colaborarás en la definición de arquitecturas de ML escalables en Azure, AWS y GCP para ciencia de datos a gran escala
  • Innovación con IA de última generación - Trabajarás en proyectos que van desde algoritmos tradicionales de ML y optimización, hasta IA Generativa aplicando LLMs (GPT-4o, Claude 3.5 Sonnet, Llama 3), Transformers, RAG systems, fine-tuning de modelos, y agentes de IA autónomos
  • Experimentación con tecnología puntera - Usarás Azure Databricks, Azure ML, AWS SageMaker, Google Vertex AI, OpenAI, Anthropic Claude, Hugging Face, LangChain, vector databases (Pinecone, Weaviate)... Si es lo más avanzado, estarás trabajando con ello
  • Industrialización con MLOps / AIOps - Implementarás metodologías MLOps y AIOps para garantizar escalabilidad, fiabilidad y mantenibilidad. Establecerás monitoring, detección de data drift, model decay y estrategias de reentrenamiento automático
  • Optimización de modelos para máximo impacto - Realizarás feature engineering avanzado, hyperparameter tuning, optimización de rendimiento y experimentación continua para maximizar métricas de negocio y eficiencia de modelos
  • Liderazgo como referente técnico/a - Mentorizarás a equipos, compartirás conocimiento, establecerás estándares de excelencia en ML y contribuirás a la cultura de innovación continua
  • Transformación de desafíos en valor - Interactuarás directamente con clientes para entender sus necesidades de negocio y traducirlas en soluciones técnicas de IA que generen impacto medible y sostenible
Lo que ofrecemos
Lo que ofrecemos
  • Contrato indefinido
  • Flexibilidad total. Remoto 100%, híbrido u oficina. Tú decides dónde y cómo trabajas mejor
  • Jornada intensiva en julio y agosto, además de los viernes
  • Apoyo económico para el teletrabajo
  • Acceso a formaciones, certificaciones oficiales (AWS, Google, Azure), conferencias y cursos
  • Tiempo completo
Leer más
Arrow Right

Senior Machine Learning Engineer

Senior Machine Learning Engineers at Thoughtworks build, maintain and test the a...
Ubicación
Ubicación
Chile , Santiago
Salario
Salario:
No proporcionado
thoughtworks.com Logo
Thoughtworks
Fecha de expiración
Hasta nuevo aviso
Flip Icon
Requisitos
Requisitos
  • An advanced English level is required
  • You must have a strong experience with LLM and AI
  • You have experience in writing clean, maintainable and testable code, demonstrating attention to refactoring and readability of the code
  • You are proficient in scripting languages such as Python or Shell for automation and task streamlining
  • You have knowledge of distributed systems and scalable architectures to handle large-scale ML applications
  • You have experience with building, deploying, and maintaining ML systems using relevant ML techniques and platforms, i.e.: Scikit-learn, Tensorflow, MLFlow, Kubeflow, Pytorch
  • You have experience with building, deploying and maintaining ML systems and experience with application of MLOps principles and CI/CD to ML
  • You have experience in machine learning engineering and data science, are familiar with key ML concepts, algorithms and frameworks, and understand ML model lifecycles
  • You have experience with designing and operating the infrastructure required to run different types of ML training and serving workloads, i.e.: on-premise vs. cloud infrastructure, infrastructure as code, monitoring, etc
  • You have hands-on experience with on-premise and cloud services for building and deploying ML pipelines, i.e.: Azure, AWS, GCP or Databricks and associated ML managed services
Responsabilidades
Responsabilidades
  • You will contribute to design and drive the development of robust scalable architectures and infrastructure for deploying and managing machine learning (ML) applications, ensuring high availability, performance and security
  • You will collaborate with data scientists and engineers to translate business needs into effective and efficient ML systems and applications
  • You will own the development and maintenance of core functionalities within ML applications, including ML pipelines, model training and deployment, and monitoring and evaluation
  • You will drive the functional stream of work by providing technical expertise, handling team discussions and ensuring timely delivery of assigned tasks
  • You will stay ahead of the curve by actively exploring and implementing the latest tools, frameworks and offerings in the ML landscape
  • You will facilitate collaborative problem solving within the team by actively listening, communicating effectively and mentoring other engineers
  • You will contribute to the development and execution of the team's overall ML strategy, aligning technical capabilities with business objectives
  • You will proactively identify and address challenges related to ML systems and applications, proposing solutions and implementing improvements
Lo que ofrecemos
Lo que ofrecemos
  • Learning & Development: There is no one-size-fits-all career path at Thoughtworks: however you want to develop your career is entirely up to you. But we also balance autonomy with the strength of our cultivation culture. This means your career is supported by interactive tools, numerous development programs and teammates who want to help you grow. We see value in helping each other be our best and that extends to empowering our employees in their career journeys
  • Tiempo completo
Leer más
Arrow Right