Pular para o conteúdo principal

Pessoa Engenheira de Dados Pleno

Descrição da vaga

Agora, estamos em busca de uma Pessoa Engenheira de Dados Pleno para fazer parte do nosso time dinâmico e inovador.

Se você é proativo(a), gosta de aprender e tem resiliência para enfrentar desafios, venha construir o futuro da tecnologia com a gente! 🚀

Responsabilidades e atribuições

  • Desenvolver, manter e otimizar pipelines ETL/ELT utilizando ferramentas como Apache NiFi, Dataflow ou outras soluções de integração;
  • Atuar no tratamento, modelagem, ingestão e transformação de dados estruturados e não estruturados;
  • Administrar e monitorar bancos de dados relacionais e não relacionais (PostgreSQL, MySQL, SQL Server, MongoDB, ElasticSearch, Redis);
  • Implementar práticas de tuning, otimização de consultas e melhoria de performance;
  • Desenvolver rotinas de backup, recuperação, replicação e alta disponibilidade;
  • Garantir a segurança dos dados, aplicando boas práticas de criptografia, RBAC, auditoria e conformidade (GDPR, LGPD);
  • Dar suporte à área de Analytics e Business Intelligence, integrando bases com ferramentas de visualização (Looker, Tableau ou Power BI).

Requisitos e qualificações

  • Administração de Banco de Dados;
  • Instalação, configuração e manutenção de SGBDs relacionais e NoSQL;
  • Otimização de queries, criação de índices, particionamento e análise de planos de execução;
  • Monitoramento contínuo e troubleshooting de performance;
  • Experiência com replicação, clustering e mecanismos de failover;
  • Engenharia de Dados / ETL;
  • Experiência com Apache NiFi para orquestração e integração de fluxos;
  • Construção de pipelines escaláveis e eficientes;
  • Manipulação de grandes volumes de dados (batch e streaming);

Cloud – Google Cloud Platform (Diferencial Forte):


  • BigQuery: modelagem, performance tuning, controle de custos e consultas de alta escala;
  • Dataflow: desenvolvimento de pipelines em streaming e batch usando Apache Beam;
  • Integração com Cloud Storage para ingestão, arquivamento e migração de dados;
  • IAM: configuração de políticas, permissões e boas práticas de segurança;
  • Construção de ambientes híbridos e migração de dados para GCP.

Desejável:


  • Otimização de custos e eficiência em ambientes de nuvem (especialmente GCP);
  • Conhecimento em versionamento, CI/CD e automações voltadas para data engineering;
  • Familiaridade com ambientes distribuídos e processamento em escala.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Entrevista RH
  3. Etapa 3: Entrevista Técnica
  4. Etapa 4: Contratação