CrawlJobs Logo

Cloudera Senior Tech Lead

https://www.citi.com/ Logo

Citi

Location Icon

Ubicación:
Mexico, Ciudad de Mexico

Category Icon
Categoría:
TI - Desarrollo de Software

Job Type Icon

Tipo de contrato:
Contrato de trabajo

Salary Icon

Salario:

No proporcionado
Guardar empleo
Save Icon
Aplicar al puesto

Descripción del trabajo:

Responsable de diseñar, implementar y gestionar soluciones basadas en Cloudera para proyectos de big data. Trabaja en la creación de arquitecturas de datos robustas, asegurando la disponibilidad, escalabilidad, seguridad y eficiencia de las plataformas y servicios de datos. Colabora con equipos técnicos y de negocio para alinear las soluciones con los objetivos estratégicos de la organización.

Responsabilidades:

  • Diseñar arquitecturas de datos basadas en Cloudera y tecnologías relacionadas (Hadoop, Spark, Hive, Impala, etc.)
  • Implementar soluciones escalables para la gestión y análisis de grandes volúmenes de datos
  • Gestionar y optimizar clústers de Cloudera en entornos on-premises o en la nube
  • Supervisar la integración de herramientas de big data con sistemas empresariales existentes
  • Trabajar con equipos de desarrollo, operaciones y negocio para definir estrategias de datos
  • Documentar arquitecturas y soluciones técnicas
  • Asegurar la calidad, disponibilidad y seguridad de los datos en las plataformas
  • Implementar medidas de seguridad para la protección de datos sensibles
  • Supervisar el desempeño de los clústeres y proponer mejoras
  • Resolver incidentes relacionados con el entorno de big data
  • Proveer orientación técnica y capacitación a equipos internos.

Requisitos:

  • 6-10 years experience using codes for statistical modeling of large data sets
  • Bachelor’s/University degree or equivalent experience, potentially Masters degree
  • Licenciatura en Informática, Ingeniería en Sistemas, Matemáticas, Ingeniería de Software, Telecomunicaciones o carrera afín
  • Certificación en Cloudera (CDP Administrator, CDP Data Engineer, CDP Data Analyst, etc.)
  • Certificaciones relacionadas con big data (Apache Hadoop, Apache Spark)
  • Conocimientos en plataformas de nube (AWS, Azure, Google Cloud)
  • Certificaciones en seguridad de datos (deseable)
  • Administración de clústeres Cloudera (CDP, Cloudera Manager)
  • Uso de herramientas como Hive, Impala, HBase, Oozie, Sqoop, Kafka, Flume, y Spark
  • Experiencia con HDFS (Hadoop Distributed File System)
  • Experiencia con SQL, NoSQL (Cassandra, MongoDB)
  • Conocimiento avanzado de lenguajes de programación como Python, Java, Scala o R
  • Experiencia con sistemas operativos Linux (Red Hat, CentOS, Ubuntu)
  • Configuración de entornos virtualizados o en la nube (AWS, Azure, Google Cloud)
  • Conocimientos de redes y seguridad (protocolos, firewalls, cifrado)
  • Familiaridad con herramientas de orquestación y automatización (Ansible, Terraform, Kubernetes)
  • Experiencia con sistemas de control de versiones (Git, GitLab)
  • Implementación de políticas de gobernanza de datos (Apache Ranger, Atlas)
  • Conocimiento de normativas de privacidad y protección de datos (GDPR, CCPA).

Deseable:

  • Certificaciones en seguridad de datos
  • Conocimientos de redes y seguridad
  • Conocimientos en plataformas de nube (AWS, Azure, Google Cloud)
  • Conocimiento de normativas de privacidad y protección de datos (GDPR, CCPA).

Información adicional:

Oferta publicada:
15 de mayo de 2025

Tipo de empleo:
Tiempo completo
Tipo de trabajo:
Trabajo presencial
Compartir enlace de empleo:
Bienvenido a CrawlJobs.com
Tu plataforma global de descubrimiento de empleo
En CrawlJobs.com, simplificamos el proceso de encontrar tu próxima oportunidad profesional trayendo ofertas de empleo directamente a ti desde todos los rincones de la web. Utilizando tecnologías de IA de vanguardia y rastreo web, recopilamos y seleccionamos ofertas de trabajo de una variedad de fuentes en todo el mundo, asegurando que tengas acceso a las ofertas de empleo más actualizadas en un solo lugar.