¿Qué harás?
Formarás parte de un equipo responsable de desarrollar y desplegar soluciones de procesamiento de datos distribuidos, dentro de una arquitectura ya establecida. Trabajarás mano a mano con perfiles de análisis funcional y arquitectura, implementando la lógica de negocio en flujos de datos reales, orientados a eventos.
Tu día a día girará en torno a:
• Desarrollo de pipelines de datos distribuidos con Spark (PySpark).
• Implementación de DAGs en Apache Airflow para orquestación.
• Construcción de procesos ETL desde fuentes como Oracle hacia arquitecturas EDA.
• Uso intensivo de Python para programar la lógica de transformación y procesamiento.
• Participación activa en la mejora continua de los procesos, trabajando bajo buenas prácticas y metodologías ágiles.
Requisitos:
• Experiencia sólida en desarrollo con Python.
• Conocimiento y uso práctico de Apache Spark.
• Familiaridad con Apache Airflow: creación y mantenimiento de DAGs.
• Capacidad para trabajar con bases de datos relacionales y manejar SQL avanzado, especialmente sobre Oracle.
• Experiencia en proyectos de datos reales, con foco en ingesta, procesamiento y entrega de información.
• Ganas de construir soluciones escalables, modulares y con impacto.
¿Qué te ofrecemos?
• Participación en un proyecto estratégico en el sector bancario.
• Una arquitectura ya implantada, donde tu rol será hacerla realidad desarrollando los procesos que dan vida a los datos.
• Trabajo colaborativo con perfiles de análisis y arquitectura que te ayudarán a centrarte en lo que mejor haces: desarrollar soluciones de datos.
• Entorno técnico puntero: Spark, Airflow, Python, arquitecturas EDA, ingesta desde Oracle.
• Modalidad híbrida/remota y salario competitivo, acorde a tu experiencia y potencial.