Job Description:
• Projetar e implementar pipelines de dados eficientes e escaláveis, adequados a diferentes cenários de negócio (Data Lake, Data Warehouse, Data Mart).
• Criar e manter pipelines de ingestão e transformação de dados em ambientes GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage).
• Definir padrões de modelagem relacional e dimensional (star schema, snowflake, Data Vault, etc.), com foco em performance e usabilidade.
• Atuar junto a áreas de negócio para traduzir requisitos em modelos de dados claros e consistentes.
• Assegurar qualidade, governança, segurança e compliance em todo o ciclo de vida dos dados.
• Monitorar e otimizar custos e performance em nuvem.
Requirements:
• Experiência avançada em modelagem de dados (conceitual, lógica e física), especialmente em ambientes analíticos.
• Conhecimento profundo em SQL e boas práticas de design para Data Warehouse/BigQuery.
• Experiência com linguagens como Python e Spark para processamento de dados.
• Domínio do ecossistema GCP (BigQuery, Dataflow, Dataproc, Pub/Sub, Cloud Storage, Composer).
• Vivência em práticas de CI/CD, versionamento e automação de pipelines.
• Conhecimento de arquiteturas modernas de dados (data mesh, lakehouse, streaming).
Benefits:
• Não permitimos nenhum tipo de discriminação
• Acreditamos na diversidade e inclusão
Apply Now
Apply Now