Engenheiro de Dados Sênior/ Pleno (Data Engineer - Home Office

B2 S.A.

Belo Horizonte - MG

1 posição

Não informado

Elegível para PCD

Integral

PJ
Remoto
Pleno
Sênior
Tecnologia

Venha fazer parte do nosso TIME!
[ Vaga extensiva a: PCD's, mulheres, pessoas com +40, pessoas indígenas, pessoas LGBTQIAP+ e pessoas negras. ]

Você é apaixonado por DESAFIOS e busca um ambiente de trabalho ACOLHEDOR? Esta é a sua oportunidade de brilhar! Aqui, nossa cultura é incrível e nos sentimos em casa. Valorizamos a liberdade de expor ideias e a INOVAÇÃO em tudo que fazemos.

Estamos em busca de Engenheiro de Dados Sênior/ Pleno (Data Engineer), com foco na construção de pipelines escaláveis e eficientes para suportar iniciativas de analytics e inteligência artificial. Se você busca atuar com dados em larga escala e arquitetura moderna, essa vaga é para você! ?

? Modelo de atuação: 100% Home Office
? Contratação: PJ (com possibilidade de internalização após 3 meses de alocação no cliente)

O que você precisa saber:

Resumo da função
Este profissional será responsável por projetar, construir e manter pipelines de dados robustos e escaláveis, garantindo a ingestão, transformação e disponibilização de dados para consumo analítico e aplicações de IA. Atuará em um ambiente moderno de dados, com arquitetura lakehouse e forte uso de serviços AWS. Espera-se um perfil técnico, organizado e orientado à eficiência, com foco em qualidade, performance e custo. Se deseja atuar em desafios complexos e com alto impacto, essa oportunidade é ideal ?

Hard Skills
• Construção de pipelines de dados (batch e streaming)
• Processamento de dados em arquitetura lakehouse
• Modelagem de dados para consumo analítico
• Integração de dados entre múltiplas fontes (APIs, eventos, sistemas internos)
• Python avançado (ETL, automações e integração com APIs)
• SQL avançado para manipulação e otimização de dados
• Spark / PySpark para criação e otimização de jobs
• Experiência com AWS (S3, Glue, Lambda, Step Functions)
• Conhecimento em EMR (diferencial relevante)
• Experiência com mensageria e eventos (EventBridge, SQS, SNS)
• DynamoDB (modelagem e acesso a dados)
• Orquestração de pipelines com Step Functions
• Arquitetura orientada a eventos (event-driven)
• Experiência com Data Lake / Lakehouse (Parquet, camadas raw/curated/analytics)
• Estratégias de particionamento de dados
• Boas práticas de data quality e observabilidade de pipelines
• Otimização de performance e custo em ambientes de dados
• Versionamento com Git
• Infraestrutura como código com Terraform (nível intermediário)

Atividades da posição
• Desenvolver e manter pipelines de dados escaláveis (batch e streaming)
• Garantir ingestão, transformação e disponibilização eficiente de dados
• Modelar dados para suportar análises e aplicações de IA
• Integrar diferentes fontes de dados (APIs, eventos e sistemas internos)
• Construir e otimizar jobs utilizando Spark / PySpark
• Atuar na orquestração de pipelines com Step Functions
• Trabalhar com arquitetura orientada a eventos
• Organizar e estruturar dados em ambientes Data Lake / Lakehouse
• Implementar estratégias de particionamento e otimização de dados
• Garantir qualidade, confiabilidade e observabilidade dos pipelines
• Otimizar custos e performance em ambientes AWS
• Colaborar com times de dados (analistas e cientistas) para entrega de soluções
• Apoiar decisões técnicas relacionadas à arquitetura e engenharia de dados

Localização

Avenida Afonso Pena, Centro, Belo Horizonte - MG, Brasil, 30130-003