CrawlJobs Logo
Briefcase Icon
Category Icon

Filtros

×
Modo de trabajo

Data Engineer - Scala y Pyspark Empleos

4 Ofertas de empleo

Filtros
Sr software engineer
Save Icon
Location Icon
Ubicación
Chile , Santiago
Salary Icon
Salario
45900000.00 - 54000000.00 CLP / Año
https://checkr.com Logo
Checkr
Fecha de expiración
Hasta nuevo aviso
Leer más
Arrow Right
Data Engineer
Save Icon
Location Icon
Ubicación
España , Barcelona
Salary Icon
Salario
No proporcionado
https://www.inetum.com Logo
Inetum
Fecha de expiración
Hasta nuevo aviso
Leer más
Arrow Right
Data Engineer - Python y APIs
Save Icon
Location Icon
Ubicación
Spain , Madrid
Salary Icon
Salario
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Leer más
Arrow Right
Data Engineer
Save Icon
Location Icon
Ubicación
Spain , Sevilla
Salary Icon
Salario
No proporcionado
https://www.soprasteria.com Logo
Sopra Steria
Fecha de expiración
Hasta nuevo aviso
Leer más
Arrow Right
¿Buscas trabajos como Data Engineer especializado en Scala y PySpark? Esta profesión es fundamental en la era del big data, actuando como el arquitecto que construye los cimientos de datos para que las organizaciones tomen decisiones basadas en información. Un Data Engineer con este perfil técnico diseña, construye y mantiene pipelines de datos robustos, escalables y eficientes, que transforman datos crudos en un recurso fiable y listo para el análisis. Las responsabilidades típicas de este rol giran en torno al ciclo de vida completo de los datos. Generalmente, estos profesionales se encargan del desarrollo, testing y mantenimiento de arquitecturas de procesamiento de datos a gran escala. Utilizan Apache Spark, aprovechando Scala para su rendimiento óptimo en el núcleo del motor y PySpark para la interactividad y la colaboración con equipos de data science. Una parte crucial de su trabajo es la ingesta de datos desde fuentes diversas (bases de datos, APIs, logs) y su posterior transformación, limpieza y almacenamiento en data warehouses o data lakes. También garantizan la calidad, eficiencia y disponibilidad de los datos, implementando prácticas de ETL/ELT, orquestación de flujos (con herramientas como Airflow) y monitorización. Para acceder a estos empleos, se requiere un sólido conjunto de habilidades técnicas. El dominio de Scala es esencial para desarrollar aplicaciones Spark de alto rendimiento y manejar procesamiento distribuido complejo. Asimismo, la experiencia con PySpark es clave para crear scripts de transformación y colaborar en entornos de notebooks. El conocimiento profundo de SQL, los principios de ingeniería de software (control de versiones con Git, testing) y la comprensión de modelos de datos y almacenamiento en la nube (AWS, Azure, GCP) son comunes en las ofertas. Además, se valoran las habilidades blandas como la resolución de problemas, la capacidad de trabajar en equipo y la comunicación efectiva para traducir requisitos de negocio en soluciones técnicas. En resumen, los Data Engineers especializados en Scala y PySpark son los artífices de la infraestructura de datos moderna. Su labor permite que científicos de datos y analistas extraigan valor real de la información, impulsando la innovación y la ventaja competitiva. Si te apasiona resolver desafíos de escalabilidad, construir sistemas confiables y dominar tecnologías de big data, explorar los trabajos en este campo representa una carrera con alta demanda y un impacto tangible en cualquier industria.

Filtros

×
Países
Categoría
Ubicación
Modo de trabajo
Salario