Destaques importantes
- Área e especialização profissional: Logística - Transporte
- Nível hierárquico: Coordenador
- Local de trabalho: São Paulo, SP
- Regime de contratação de tipo Efetivo – CLT
- Jornada Período Integral
- Modelo de Trabalho: Presencial
- Desenvolver pipelines de dados eficientes e escaláveis em PySpark para substituir processos ODI.
- Criar e manter objetos em banco de dados Oracle com PL/SQL (procedures, packages, views, cenários e load plan).
- Modelar e manter dashboards em Power BI, com dados financeiros críticos e KPIs estratégicos.
- Manter e evoluir a infraestrutura de ingestão e transformação de dados em alto volume (~5Mi transações/mês).
- Garantir qualidade, confiabilidade e performance dos dados em ambientes de produção.
- Apoiar o time de negócios na tradução de demandas analíticas em soluções técnicas.
- Implementar boas práticas de versionamento, documentação e governança de dados.
- Colaborar na definição da nova arquitetura analítica e de engenharia de dados.
- Requisitos e qualificações
- Experiência com PySpark (DataFrames, UDFs, performance tuning).
- Domínio de PL/SQL em ambientes Oracle, incluindo manipulação de grandes massas de dados.
- Proficiência com Power BI (DAX, modelagem, publicação no Service).
- Experiência com ambientes de faturamento, financeiro ou cobrança.
- Familiaridade com ferramentas ETL (ODI, Pentaho, Kafka.).
- Vivência com ambientes de grande volume de dados.
- Desejáveis:
- Experiência com cloud (Azure, AWS ou GCP).
- Noções de arquitetura de dados (Data lake, Data warehouse, delta lake).
- Conhecimento de versionamento com Git.
- Experiência com ferramentas de orquestração (Airflow, Luigi, etc.).
- Noções de DevOps para dados (CI/CD, testes automatizados).
Valorizado
- Escolaridade Mínima: Ensino Superior
1 Candidato se inscreveu a esta vaga