Ssr Data Engineer (Only Hispanic Latam) at Workana

We are redirecting you to the source. If you are not redirected in 3 seconds, please click here.

Ssr Data Engineer (Only Hispanic Latam) at Workana. En Workana estamos buscando un/a . Data Engineer.  con perfil Semi-Senior para sumarse a equipo de uno de nuestros clientes:"Empresa mexicana dedicada a mejorar la salud y calidad de vida mediante productos farmacéuticos y de cuidado personal.". Acerca del cliente y el rol:. Nos enfocamos en diseñar, construir y mantener la infraestructura de datos para que la organización acceda, procese y analice información de manera eficiente. Esto incluye crear pipelines robustos, automatizar integraciones y garantizar datos en tiempo real, colaborando con áreas clave como Ciencia de Datos y Negocio. El rol busca optimizar la infraestructura en la nube (Snowflake, AWS), implementar procesos automatizados de ingesta y asegurar datos consistentes para modelos y tableros analíticos.. Responsabilidades principales:. . . Diseño y arquitectura de datos. : Diseñar y documentar arquitecturas escalables que respondan a las necesidades actuales y futuras del negocio.. . . Desarrollo e implementación de pipelines:.  Construir, desplegar y mantener pipelines automatizados con Airflow y AppFlow. Implementar procesos ETL/ELT hacia Snowflake desde diversas fuentes.. . . Integración y calidad de dato:.  Desarrollar conectores y APIs para ingesta de datos internos y externos. Definir y aplicar controles de validación, calidad y monitoreo continuo.. . . Automatización y DevOps:.  Programar scripts de automatización con Python. Implementar CI/CD con GitHub para versionado y despliegue.. . . Colaboración y soporte:.  Trabajar con equipos de Ciencia de Datos, IT y negocio para entender necesidades de datos. Brindar soporte técnico y asesoría en mejores prácticas de ingeniería de datos.. . Requisitos Obligatorios:. . Mínimo 3 años de experiencia prática en ingeniería de datos o afines.. . Dominio de . Python y SQL avanzado.  para desarrollo de scripts y consultas complejas. . Experiencia en . Snowflake.  para modelado de datos, consultas optimizadas y desarrollo de procedimientos.. . Uso avanzado de . Apache Airflow. . . Manejo de . Amazon AppFlow.  para la integración de datos automatizada.. . Conocimiento práctico de . AWS. , incluyendo servicios como: . EC2, S3, Lambda, RDS, IAM. .. . Dominio de . Git/GitHub.  para versionado, colaboración y despliegue con . CI/CD. .. . Formación en en Ingeniería de Sistemas, Computación, Ingeniería de Software, Matemáticas, Física o afines.. . Experiencia en proyectos de . infraestructura de datos.  con enfoque en calidad, escalabilidad y eficiencia.. . Alta capacidad de resolución de problemas y mentalidad de mejora continua.. . Orientación a resultados, con foco en optimización y automatización.. . Autonomía, proactividad y capacidad para integrarse a equipos multidisciplinarios.. . Requisitos Deseables (no excluyentes pero valorizados):. . Experiencia con Docker para contenedores.. . Conocimientos en Apache Spark para procesamiento distribuido de datos.. . Familiaridad con APIs (REST/GraphQL) para integración de servicios.. . Condiciones contractuales:. . Modalidad: 100% remoto.. . Jornada: Full-time.. . Tipo de contrato: Contractor vía Workana.. . Duración: 12 meses, con posibilidad de renovación basado en buen desempeño.. . Compensación: hasta USD 2.100 mensuales.. . Proceso de selección:. . Breve Video Entrevista asincrónica en Hireflix.. . Breve Call con Matcher de Workana.. . Entrevista Técnica Cultural con líder del equipo de Datos del cliente.. . Entrevista técnica con el equipo del cliente.. . Si te interesa esta posición y crees que eres el indicado/a aguardamos tu aplicación. En caso de quedar seleccionado/a para continuar, alguien del equipo de Talent de Workana se pondrá en contacto contigo!. Company Location: Mexico.