
Staff Data Engineer at Loggi. Vamos falar sobre a Loggi? 💙. Somos uma empresa de tecnologia que está reinventando a logística e a forma de fazer entregas no Brasil.. Queremos empoderar pessoas e transformar negócios com entregas de excelência. Movimentamos mais de 400 mil pacotes por dia com uma tecnologia de ponta a ponta, que aproxima todos os cantos do país.. Temos o propósito de que as entregas sejam acessíveis para todas as pessoas do Brasil. Esse é nosso desafio diário, por isso, buscamos inovação em tudo que fazemos. . Por aqui, valorizamos diferentes formas de pensar, pois sabemos que só assim poderemos criar um futuro mais democrático para as pessoas.. Nossa Cultura. . Nossa cultura é traduzida todos os dias pelos comportamentos de cada Logger e das experiências que construímos com os nossos clientes e sociedade. . Somos conduzidos por quatro valores: Criamos o futuro, Entregamos soluções simples, Comunicamos abertamente e Vivemos o diferente. Eles são como um guia de como as pessoas devem se comportar diante das pequenas e grandes atitudes tomadas no nosso ambiente de trabalho diariamente.. Nosso time de Dados. As equipes de Engenharia e Dados da Loggi são apaixonadas por desafios e buscam escalar um negócio transformador em um ambiente de constante aprendizado, tendo como compromisso a excelência para criar sistemas e otimizar processos, construindo assim uma plataforma de logística eficiente e inovadora. Nossos desafios são de alta complexidade, mesclando profissionais experientes e em início de carreira, em um ambiente fortalecido pelo aprendizado e compartilhamento de experiências.. Usamos tecnologia para resolver problemas de eficiência e operacionalização, além de produzirmos uma solução de coletas e entregas dinâmica e única. Temos também desafios em maximizar o sucesso de entrega e construir mecanismos de pagamento justos aos nossos entregadores.. Temos o desafio de trazer cada vez mais maturidade para a empresa no uso de Inteligência Artificial, Ciência de Dados e IA Generativa, explorando novas metodologias/oportunidades, aprimorando a infra e processos (MLOps) e discutindo governança. Assim, viabilizaremos uma maior eficiência para o negócio alavancada por inovação.. Junte-se a nós e faça parte da equipe que está democratizando a logística e conectando o Brasil, proporcionando uma experiência de entrega excepcional aos clientes.. . Experiência comprovada em modelagem de dados complexos, idealmente em ambiente cloud;. . Proficiência avançada em Python e SQL para desenvolvimento de pipelines e transformações;. . Conhecimento sólido em DBT para versionamento e automação de transformações de dados;. . Experiência prática com ferramentas de orquestração (Airflow ou similares);. . Experiência com prática de versionamento (Git ou similares);. . Domínio em arquitetura de dados, incluindo ambientes data lake, data lakehouse e streaming;. . Conhecimentos em frameworks e ferramentas big data como Apache Spark, além de AWS (Redshift, S3, Glue, DMS, EMR);. . Capacidade analítica para resolução proativa de problemas complexos, com foco em impacto no negócio;. . Excelentes habilidades interpessoais para comunicação eficaz e trabalho colaborativo;. . Desejo de aprendizado contínuo e habilidade para conduzir projetos com autonomia e comprometimento com resultados.. . Responsabilidades:. . Projetar, construir e otimizar modelos de dados alinhados com as necessidades dos consumidores internos, garantindo alta performance e eficiência de custos;. . Desenvolver e manter pipelines de dados confiáveis, escaláveis e reutilizáveis, utilizando ferramentas modernas de orquestração e transformação;. . Garantir a qualidade, governança e segurança dos dados em ambientes data lake e lakehouse;. . Participar da definição da arquitetura de dados, alinhando tecnologia, processos e infraestrutura cloud para escalabilidade e robustez;. . Propor melhorias contínuas e adotar boas práticas na gestão do ciclo de vida dos dados.. . Diferenciais:. . Experiência anterior em startups ou ambientes ágeis;. . Conhecimento em metodologias DevOps aplicadas a dados;. . Certificações clouds relacionadas (AWS, GCP, Azure);. . Experiência com Kubernetes e Terraform como ferramentas de orquestração e infraestrutura.. . Company Location: Brazil.