Skip to main content

Data Engineer

  • Empresa:
    Confidencial

Información general

  • Horario
    Lunes a viernes, de 8:00 a.m. a 5:00 p.m.
  • Ciudad:
    Santo Domingo
  • Provincia

Experiencia laboral

  • 3-5 años de experiencia. 

Descripción de puesto

El Ingeniero de Datos es responsable de gestionar el flujo de datos hacia y desde una plataforma SaaS multiusuario. Participa en la modernización de procesos de ingestión, pasando de sistemas heredados en C# .NET a una arquitectura escalable y nativa en la nube (AWS). Diseña e implementa soluciones para la ingestión de datos mediante APIs y cargas de archivos, su transformación y carga en SQL Server, así como su integración en una plataforma analítica basada en Databricks.

Este rol implica el manejo de información sensible, sujeto a políticas de confidencialidad y seguridad.

Responsabilidades

  • Diseñar e implementar pipelines de ingestión de datos en AWS (S3, Lambda, API Gateway, Glue, Step Functions).
  • Desarrollar APIs y mecanismos de carga de datos.
  • Crear flujos de mapeo y transformación para SQL Server.
  • Apoyar la arquitectura de data lakehouse en Databricks.
  • Optimizar procesos ETL/ELT para rendimiento y confiabilidad.
  • Garantizar la calidad y disponibilidad de datos para analítica y machine learning.
  • Brindar soporte a procesos existentes en C# .NET.
  • Diagnosticar y resolver incidencias en pipelines de datos.
  • Colaborar con equipos técnicos y de producto.
  • Implementar buenas prácticas de gobernanza, seguridad y cumplimiento.
  • Documentar arquitectura y procesos.

Requisitos

  • Egresado/a de Ingeniería en Sistemas e Ingeniería de Software.
  • Capacidad para trabajar legalmente en la República Dominicana.
  • Dominio del idioma inglés.
  • Sólida experiencia con servicios de AWS para ingeniería de datos (S3, Lambda, Glue, Step Functions, API Gateway).
  • Dominio de Python y/o C# .NET para procesamiento e integración de datos.
  • Experiencia práctica con SQL Server y conceptos de bases de datos relacionales.
  • Familiaridad con Databricks, Spark y arquitecturas tipo lakehouse.
  • Conocimiento de patrones de diseño ETL/ELT y modelado de datos.
  • Experiencia construyendo APIs y soluciones de ingestión basadas en archivos.
  • Experiencia en entornos SaaS multiusuario es un plus.
  • Fuertes habilidades analíticas y de resolución de problemas.
  • Capacidad para trabajar de manera colaborativa en equipos multidisciplinarios.
  • Excelentes habilidades de comunicación y documentación.
  • Grado técnico (Associate degree) o equivalente, preferible.
  • Experiencia con pipelines CI/CD para flujos de datos.
  • Conocimiento de gobernanza de datos y mejores prácticas de seguridad en entornos cloud.
  • Familiaridad con herramientas y frameworks modernos de integración de datos.
  • Experiencia con pipelines de machine learning y procesamiento de datos en tiempo real.

Beneficios

  • Seguro médico
  • Seguro dental
  • Seguro de vida
  • Protección de ingresos
  • Paquete tecnológico para home office (disponible después del período inicial de inducción)

Solicitud para aplicar a la vacante