Data Engineer Ssr
¿Quiénes somos?
En belo, estamos creando productos financieros simples e intuitivos para que las personas puedan enfocarse en lo que realmente importa. Nuestra misión es empoderar a los usuarios de todo el mundo con acceso fluido a servicios financieros innovadores.
Ya sea pagando con Pix en Brasil, recibiendo pagos internacionales o gestionando criptoactivos, belo conecta las finanzas tradicionales con soluciones de vanguardia. Desarrollada por expertos de la industria y emprendedores apasionados, nuestra plataforma está diseñada para freelancers, trabajadores remotos y usuarios cotidianos de toda América Latina que buscan herramientas financieras más accesibles y eficientes.
Estamos listos para llevar nuestro producto al siguiente nivel, por eso estamos ampliando nuestro equipo de Data, sumando un Data Engineer Ssr, que será responsable de construir y operar la plataforma de datos de belo: ingestas, orquestación, calidad y modelos analíticos que habilitan decisiones y productos.
Este rol implica automatizar pipelines ELT sobre Airbyte + Airflow + BigQuery, promover buenas prácticas de ingeniería y colaborar con equipos de Producto, Riesgo, Finanzas y Compliance 🚀
¿Qué vas a hacer?
Pipelines ELT → Diseñar, desarrollar y mantener pipelines confiables con Airbyte (ingesta) y Airflow (orquestación) apuntando a BigQuery (staging/marts).
Automatizaciones → Implementar jobs y utilidades en Python (tests, validaciones de esquema, backfills, alertas, CI/CD, packaging).
Modelado de datos → Crear y optimizar tablas particionadas/clusterizadas, vistas materializadas y estrategias de costos en BigQuery.
Observabilidad y calidad → Monitorear frescura, SLAs/SLIs, validaciones de datos, linaje y documentación de datasets.
Colaboración interdepartamental → Trabajar junto a Producto, Riesgo/Fraude, Finanzas, Compliance y Plataforma para exponer métricas clave.
Seguridad & gobernanza → Manejo correcto de secretos, controles de acceso y tratamiento de PII; contribuir a estándares y playbooks de la plataforma.
(Plus) Streaming → Integrarse con Apache Kafka/Redpanda para ingestas/eventos y transformaciones near-real-time.
Requisitos
3–4 años en Ingeniería de Datos con enfoque en plataforma/automatización.
Conocimiento sólido de Python (estructuras, librerías de datos, logging, manejo de errores, tests).
Experiencia operando Airflow (DAGs, retries, SLAs, backfills, sensors).
Experiencia con Airbyte (incremental/deduped, catálogos, troubleshooting).
Dominio de SQL y BigQuery (particiones/cluster, MERGE, performance y costos).
Buenas prácticas de Git y CI/CD (entornos, code review, versionado).
Mentalidad de plataforma: construir componentes reutilizables y estándares internos.
Comunicación clara y orientación a ownership y colaboración cross-equipo.
Deseable:
Apache Kafka/Redpanda (topics, particiones, esquemas, conectores, stream processing).
dbt u otros frameworks de modelado declarativo.
Observabilidad (Grafana/Prometheus, OpenTelemetry) y herramientas de data quality.
Experiencia en fintech/pagos/crypto (conciliaciones, antifraude, settlement).
Seguridad y compliance de datos (PII, LGPD/privacidad), políticas de acceso por fila/columna.
Great Espectations o librerías de calidad de datos similares.
Lo que ofrecemos
La oportunidad de dar forma a productos innovadores que conectan las criptomonedas con las finanzas tradicionales.
Seis semanas de vacaciones al año.
Un equipo apasionado enfocado en la innovación y el impacto.
Compensación competitiva en USDT.
MacBook y un presupuesto anual para invertir en tu desarrollo profesional.
Una cultura vibrante de startup, con flexibilidad, autonomía y un enfoque orientado a resultados.
En belo, estamos redefiniendo los servicios financieros para América Latina y más allá. ¡Unite a nosotros para crear las herramientas que las personas necesitan para prosperar en la economía moderna!
- Departamento
- Tech
- Ubicaciones
- Buenos Aires
- Estado remoto
- Híbrido
¿Ya trabajas en belo?
Ayúdanos a encontrar a tu próximo compañero/a.