Descripción del puesto
- Diseñar y desarrollar arquitecturas de datos modernas, incluyendo lagos de datos, almacenes de datos y pipelines de datos, garantizando escalabilidad, rendimiento y gobernanza.
- Utilizar herramientas y tecnologías como Hadoop, Spark, SQL, Python, Kafka, Airflow y otros frameworks de procesamiento de datos en tiempo real y por lotes.
- Definir modelos de datos óptimos que soporten analítica avanzada y machine learning, asegurando la interoperabilidad entre sistemas y la optimización del almacenamiento y procesamiento.
- Construir, optimizar y mantener pipelines de datos eficientes y confiables que faciliten la ingesta, transformación y carga de datos en diversas plataformas.
- Implementar estrategias de orquestación y automatización para la integración de datos en entornos híbridos y en la nube (AWS, Azure, Google Cloud).
- Asegurar el monitoreo y la resiliencia de los flujos de datos mediante la implementación de mecanismos de control, alertas y tolerancia a fallos; así como calidad, integridad y seguridad de los datos a lo largo de todo el ciclo de vida, aplicando estándares y mejores prácticas de gestión de datos.
- Implementar estrategias de Data Governance, incluyendo lineamientos de calidad de datos, políticas de retención, clasificación de datos y cumplimiento normativo (GDPR, HIPAA, ISO 27001).
- Desarrollar soluciones para la detección y corrección de anomalías, así como la validación y perfilamiento de datos.
- Colaborar estrechamente con científicos de datos, analistas y equipos de negocio para comprender las necesidades de información, identificar patrones, tendencias y oportunidades en los datos.
- Diseñar soluciones que faciliten la explotación de datos mediante modelos analíticos, dashboards interactivos y reportes automatizados.
- Fomentar una cultura data-driven a través de la democratización del acceso a los datos y la capacitación en herramientas analíticas.
Requisitos
- Licenciatura en Ingeniería de Sistemas Computacionales, Ciencias de la Computación o similares.
- Experiencia de 1 a 3 años en Ingeniería de Datos o roles similares.
- Inglés intermedio.
- Conocimientos en SQL, trasnac-sql y lenguajes de programación como Python.
- Conocimiento de algoritmos de machine learning y deep learning.
- Conocimiento y experiencia en herramientas de big data (Hadoop, Spark, Hive, Airflow, entre otras).
- Conocimiento profundo de bases de datos relacionales y no relacionales.
- Experiencia en la aplicación del pensamiento analítico para la resolución de problemas complejos.
- Experiencia con frameworks de procesamiento de datos y herramientas de ETL.
- Experiencia en el uso de herramientas de visualización de datos (Tableau, Power BI).
- Experiencia en el uso de herramientas de modelado de datos (analysis services, cognos, entre otras).
- Experiencia con frameworks de machine learning.
- Experiencia con herramientas de cloud computing (AWS, Azure, GCP) y orquestación de contenedores.
- Experiencia en el manejo de grandes volúmenes de datos y procesamiento distribuido.
- Contar con Mínimo 18 meses en el cargo actual y no mantener sanciones disciplinarias vigentes.
Beneficios
- Día libre por: cumpleaños, matrimonio, enfermedad de pariente, permiso personal, duelo.
- Bonificaciones
- Programa de Salud y Bienestar Físico.
- Póliza de salud a un 50%
- Seguro de vida a un 100%.
- Oportunidad de crecimiento interno.
- Capacitaciones y formación.
- Convenios con empresas.
- Becas por estudio a nivel local e internacional después de 2 años.
- Actividades como: ligas deportivas, conjunto folclórico, voluntariado, entre otras.
Detalles
Nivel mínimo de educación: Universitario (Graduado)
Nosotros
"Actuamos para fortalecer y fomentar la estabilidad, confianza y competitividad del Sistema Bancario, manteniendo y profundizando la integración financiera internacional y la eficiencia y seguridad de la intermediación financiera y del sistema monetario".