Vaga de Engenheiro de Dados AWS
1 vaga: | Publicada em 10/05
- A Combinar
Sobre a vaga
A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes. Isso não poderia ser diferente com o nosso principal combustível:
as pessoas! Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia:
ética e transparência, excelência de qualidade, trabalho em equipe,
responsabilidade econômica, social e ambiental, relações humanas e credibilidade.
Buscamos profissionais inovadores que sejam movidos por desafios e focados em
resultados. Se você busca uma empresa dinâmica e parceira e que investe em seus
colaboradores através de capacitação constante, a Leega é o lugar para você!
Ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa
história e da construção do nosso futuro. Cadastre-se agora mesmo em nossas vagas!
Informações adicionais:
Responsabilidades:
Criação/Sustentação de pipeline de dados entre camadas no data lake, assim como otimização. Preparação/modelagem de base de dados; Ingestão de bases de dados para o data lake; Garantir o funcionamento dos processos e do ambiente produtivo; Pró atividade para identificação prévia de problemas de perfomance e/ou dados. Principais Atividades:
Criar/sustentar pipeline de dados entre camadas no data lake; Documentar as evoluções das atividades no JIRA diariamente; Fazer ingestão de bases para o data lake; Realizar análise de qualidade de dados, e se certificar de que padrões de analytics estão sendo aplicados; Versionar códigos desenvolvidos. Utilização de técnicas para a sustentação de arquiteturas escaláveis no ambiente da AWS, desenvolvendo a coleta dos dados por meio de serviços ou Jobs, transformações e armazenamento por meio de pipelines diversos de todos os dados da companhia e garantir a disponibilidade por meio de serviços e interfaces. Modalidade:
Híbrido, sendo 2x por semana no escritório em Curitiba ou São Paulo (Berrini). Requisitos técnicos (experiência):
Cloud Computing na plataforma AWS; Apache Spark; Apache Airflow; Scala/Python; ETL/ELT; Git; SQL/NoSQL; Data Modeling; Docker; Linux; Databricks; Arquitetura Lambda/Kappa. Tempo mínimo de atuação prática (experiência):
3 anos. ÿ Diferencial:
Experiência com Big Data e Analytics; Experiência com ferramentas de Big Data da AWS:
EMR/Spark, Athena, Glue, Lambda, Redshift, S3, Kafka, ou outros; Certificação AWS. Modalidade:
Híbrido, sendo 2x por semana no escritório em Curitiba ou São Paulo (Berrini).