CrawlJobs Logo

Consultor Big Data

https://www.inetum.com Logo

Inetum

Location Icon

Ubicación:
España, Madrid

Category Icon
Categoría:
TI - Desarrollo de Software

Job Type Icon

Tipo de contrato:
No proporcionado

Salary Icon

Salario:

No proporcionado
Guardar empleo
Save Icon
Aplicar al puesto

Descripción del trabajo:

Consultor Big Data para desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización, diseñar arquitecturas de datos y garantizar la calidad del dato.

Responsabilidades:

  • Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización
  • Elaborar y mantener documentación técnica en espacios colaborativos
  • Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa
  • Integrar componentes de arquitecturas Big Data según los casos de uso
  • Asegurar que las plataformas cumplen con los requisitos del negocio
  • Dar soporte técnico en la implantación alineada con metodologías ágiles
  • Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa
  • Definir una arquitectura de metadatos para interoperabilidad y gobernanza
  • Implementar políticas de seguridad en plataformas Big Data
  • Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías
  • Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico
  • Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción
  • Participar en el diseño e implementación de soluciones de Business Intelligence

Requisitos:

  • Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark)
  • Experiencia como arquitecto/a técnico/a de Big Data
  • Liderazgo en implantación y definición técnica/arquitectura de datos
  • Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años
  • Máquinas Linux, instalación de paquetes
  • Lenguaje de comandos Unix, Bash, JSON
  • Python
  • Protocolos de internet: HTTP, HTTPS, SSL
  • Herramientas Unix: CURL, NETCAT, IP
  • API REST
  • SOLR: instalación, manejo de APIs, backup, restore
  • Entorno On-premise
  • OPENSHIFT
  • CLOUDERA: administración, Spark, Yarn, Kerberos
  • Fundamentos de AWS
  • Fundamentos de Azure
  • Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial

Deseable:

  • CDP Generalist
  • MapR Certified Spark Developer
  • CDP Administrator – Private Cloud Base
  • CCA Spark and Hadoop Developer
  • CCA Administrator
  • CCA Data Analyst
  • CCP Data Engineer
  • APM – Certified Associate in Project Management
  • Prince2 Foundation
  • Certificaciones en Scrum / Scrum Master
  • PMI-ACP: PMI Agile Certified Practitioner
  • Prince2 Agile
  • Cualquier otra certificación oficial relacionada con tecnologías Big Data

Información adicional:

Oferta publicada:
18 de agosto de 2025

Compartir enlace de empleo:
Bienvenido a CrawlJobs.com
Tu plataforma global de descubrimiento de empleo
En CrawlJobs.com, simplificamos el proceso de encontrar tu próxima oportunidad profesional trayendo ofertas de empleo directamente a ti desde todos los rincones de la web. Utilizando tecnologías de IA de vanguardia y rastreo web, recopilamos y seleccionamos ofertas de trabajo de una variedad de fuentes en todo el mundo, asegurando que tengas acceso a las ofertas de empleo más actualizadas en un solo lugar.