Especialista em Dados/Analytics

  • In-office
  • São José dos Pinhais, PR, BR
      São José dos Pinhais, PR, BR
  • De segunda à sexta, das 8h às 18h com 2h de almoço
  • Professional

    Cooperative member

Description and Responsibilities

O Especialista em Dados/Analytics será responsável por projetar, desenvolver e otimizar pipelines de dados em ambientes de alta criticidade e grande volumetria, utilizando tecnologias modernas em nuvem e Big Data. Atuará diretamente na construção de modelos analíticos e indicadores de negócio, garantindo a governança, integridade e segurança da informação. Será responsável também pela integração e transformação de dados oriundos de diferentes fontes, estruturadas e não estruturadas, por meio de ETLs eficientes e escaláveis, além de promover a catalogação e organização do data lake.

Dentre as principais atividades, destacam-se:

• Desenvolvimento e manutenção de pipelines de dados em Databricks, Apache Airflow e AWS Glue;

• Modelagem dimensional e criação de modelos analíticos voltados à tomada de decisão;

• Criação e tuning de queries SQL para ambientes com alta volumetria;

• Levantamento de requisitos com áreas de negócio e tradução em soluções técnicas robustas;

• Integração de dados via APIs e orquestração de dados em batch e near real-time;

• Apoio na arquitetura e evolução do ambiente de dados, com foco em performance e escalabilidade;

• Garantia de segurança e políticas de acesso a dados;

• Atuação em conjunto com áreas de BI, Engenharia e Governança de Dados.


Requirements

• Sólida experiência com tecnologias AWS, especialmente Redshift, DynamoDB, S3, EMR, Glue e Athena;

• Experiência prática com Databricks para desenvolvimento de pipelines e catalogação de dados;

• Domínio de Apache Airflow, Python e PySpark;

• Experiência com modelagem dimensional e construção de modelos de dados analíticos;

• Sólidos conhecimentos em SQL e tuning de queries;

• Conhecimento em arquitetura Big Data e construção de ETLs eficientes;

• Experiência com extração de dados via APIs e ambientes Linux;

• Conhecimento em bancos de dados NoSQL;

• Familiaridade com ferramentas de visualização como Qlik Sense e Power BI;

• Experiência em ambientes de alta criticidade e grande volume de dados;

• Habilidades de comunicação verbal e escrita;

• Capacidade analítica para levantamento de requisitos e análise crítica de soluções;

• Experiência com pipelines em batch e near real-time;

• Conhecimento e aplicação de boas práticas de governança de dados e segurança da informação;

• Experiência com versionamento de código (Git).


Benefits

Informado na entrevista

Code: 108682

Registration Date: 2025-04-01

Updated on: 2025-04-01