DataOps Engineer
Há 4 dias
Você é um profissional dinâmico, proativo, orientado por dados, com uma paixão por viagens e sede por crescimento? Somos a Gipsyy, uma empresa líder em tecnologia no setor de viagens, e estamos em busca de um(a) (Insira o cargo aqui) para ajudar a impulsionar nosso negócio para novos patamares.
Sobre Nós:
A Gipsyy está a frente da inovação no mercado de viagens de ônibus, utilizando a tecnologia para ajudar a moldar o futuro das viagens e criar experiências inesquecíveis para nossos clientes. Com foco em fornecer um serviço de primeira linha e soluções de ponta, estamos em busca de alguém talentoso para embarcar a bordo do nosso ônibus e criar viagens que transformam.
Visão Geral da Função:
Buscamos um(a) DataOps Engineer para ser o pilar de confiabilidade, automação e governança da nossa plataforma de dados. Sua missão é aplicar os princípios de DevOps, SRE e Engenharia de Software para construir e operar um ecossistema de dados de classe mundial. Você irá garantir que nossos pipelines de dados e modelos de IA sejam robustos, escaláveis, seguros e entreguem dados confiáveis na velocidade que o negócio precisa.
Você será responsável por transformar nossa infraestrutura de dados em código, implementar CI/CD para dados, garantir observabilidade completa e orquestrar fluxos complexos, permitindo que nossas equipes de Analytics, Data Science e Machine Learning inovem com segurança e agilidade.
Responsabilidades e atribuições
- Infraestrutura como Código (IaC) e Automação: Projetar, provisionar e gerenciar nossa infraestrutura de dados (AWS, GCP) utilizando Terraform. Automatizar tudo, desde a configuração de redes e permissões até o auto-scaling de clusters.
- Orquestração e CI/CD para Dados: Construir e otimizar pipelines de CI/CD (GitHub Actions) para automação de testes, validação de schemas e deploy seguro de fluxos de dados, transformações (dbt) e modelos de ML.
- Pipelines de Dados Robustos: Orquestrar fluxos de dados complexos (batch e streaming) com ferramentas como Airflow, Kafka, Flink, garantindo recuperação automática de falhas, alertas proativos e execução eficiente.
- Observabilidade e Confiabilidade (Data SRE): Implementar um sistema de monitoramento completo com Prometheus, Grafana ou Datadog. Definir e garantir SLAs, SLOs e SLIs para os pipelines de dados, liderando a resposta a incidentes e a análise de causa raiz.
- Qualidade de Dados e Governança: Integrar frameworks de testes automatizados de dados (Great Expectations, dbt tests) no ciclo de desenvolvimento. Implementar governança de dados com versionamento de schemas, catalogação e controle de linhagem (data lineage).
- Performance e Otimização de Custos (FinOps): Otimizar o desempenho e o custo de e pipelines em ambientes distribuídos. Implementar estratégias de particionamento, cache e paralelização para garantir a eficiência dos nossos recursos de cloud.
- Parceria Estratégica: Atuar como um parceiro técnico para as equipes de Engenharia de Dados, ML Engineering e Ciência de Dados, fornecendo uma plataforma estável e dados confiáveis para acelerar a inovação e a entrega de valor.
Requisitos e qualificações
- Proficiência em Python, SQL e automação de scripts (shell).
- Experiência sólida com Infrastructure as Code (Terraform) para ambientes de dados.
- Experiência prática na construção de pipelines de CI/CD (GitHub Actions, GitLab CI, Jenkins) aplicados a dados e ML.
- Profundo conhecimento em orquestradores de workflow, especialmente Apache Airflow.
- Vivência com processamento de dados em larga escala usando Apache Spark (batch e streaming).
- Familiaridade com o ecossistema de dados moderno, incluindo ferramentas como dbt, Kafka, Flink e Airbyte.
- Experiência na implementação de monitoramento e observabilidade com ferramentas como Prometheus, Grafana ou ELK Stack.
- Experiência com múltiplas plataformas de cloud (AWS, GCP, Azure) e Databricks.
- Conhecimento de arquiteturas modernas como Data Lakehouse e Data Mesh.
- Vivência com frameworks de teste de dados (ex: Great Expectations, Soda).
- Experiência com orquestração de containers com Kubernetes (e ferramentas como Kubeflow).
- Conhecimento em bases de dados analíticas (OLAP) como ClickHouse, Pinot ou Trino.
- Familiaridade com ferramentas de governança como Unity Catalog ou OpenMetadata.
Informações adicionais
Visando o seu bem-estar, nós oferecemos:- Vale Refeição no cartão Caju (flexível para outras despesas);
- Assistência Médica com coparticipação (SulAmérica);
- Reembolso do Gympass de acordo com o seu cargo;
- Gratuidade na passagem de ônibus Guanabara;
- 13° Nota;
- Recesso remunerado;
- Ambiente de trabalho dinâmico e que incentiva a criatividade;
- Horário flexível;
- No dress code;
- Day off no mês de aniversário.
- Oportunidade de fazer parte de uma equipe de alto impacto em um ambiente acelerado e impulsionado pela tecnologia.
- Uma cultura de inovação, colaboração e aprendizado contínuo.
- Nos comprometemos a criar um ambiente de trabalho diversificado e inclusivo, incentivamos candidaturas de pessoas de todos os backgrounds.
Gostou? Embarque com a gente nessa viagem
Somos a Gipsyy, uma startup de tecnologia com DNA em viagens. Temos orgulho de ser o elo digital que conecta passageiros as maiores eempresas do setor rodoviário no país.
Nossa missão é facilitar e revolucionar a experiência de compra de passagens, tornando as viagens rodoviárias mais acessíveis, digitais e convenientes para todos.
Estamos constantemente em busca de talentos inovadores e apaixonados por tecnologia e viagens, que queiram fazer a diferença e crescer conosco.
E aí, embarca nessa com a gente?
-
Lead - Data Engineer |
2 semanas atrás
Remoto, Brasil Grupo Autoglass Tempo inteiro R$90.000 - R$120.000 por anoDescrição da vagaOlá :DBuscamos um profissional para liderar o time de Data Engineer (DataOps) da Autoglass Tech Esse profissional possui o compromisso de garantir a entrega contínua, confiável e automatizada de dados para consumo analítico e operacional, liderando a equipe técnica e promovendo integração entre engenharia de dados, governança de...
-
Spec Data Engineer
Há 4 horas
Remoto, Brasil Invillia Tempo inteiro R$90.000 - R$120.000 por anoAproxime-se. A Invillia não apenas transformou a forma como as empresas mais revolucionárias do mundo criam e desenvolvem estratégias, negócios e produtos digitais.Inovou também a maneira como pessoas apaixonadas por tecnologia, de qualquer lugar do planeta, podem interagir, evoluir, mais conectados do que nunca.Para a Invillia, não importa onde você...
-
Data Developer
2 semanas atrás
Remoto, Brasil Ci&T Tempo inteiro R$60.000 - R$120.000 por anoWe are tech transformation specialists, uniting human expertise with AI to create scalable tech solutions.With over 7.400 CI&Ters around the world, we've built partnerships with more than 1,000 clients during our 30 years of history. Artificial Intelligence is our reality.We are looking for a Data Developer with strong knowledge in developing and maintaining...
-
Remoto, Brasil Flutter Entertainment Tempo inteiro R$120.000 - R$250.000 por anoAbout the RoleAs a Senior Data Engineering Manager on the Data Platform team, you will lead our mission to build and scale a modern data platform that supports analytics, regulatory reporting and AI-driven products. You will manage a team of Data Engineers, DataOps and Data Quality specialists, guiding the transformation of raw data into trusted,...