DataOps Engineer

Há 4 dias


Remoto, Brasil Gipsyy Tempo inteiro R$90.000 - R$120.000 por ano

Você é um profissional dinâmico, proativo, orientado por dados, com uma paixão por viagens e sede por crescimento? Somos a Gipsyy, uma empresa líder em tecnologia no setor de viagens, e estamos em busca de um(a) (Insira o cargo aqui) para ajudar a impulsionar nosso negócio para novos patamares.

Sobre Nós:

A Gipsyy está a frente da inovação no mercado de viagens de ônibus, utilizando a tecnologia para ajudar a moldar o futuro das viagens e criar experiências inesquecíveis para nossos clientes. Com foco em fornecer um serviço de primeira linha e soluções de ponta, estamos em busca de alguém talentoso para embarcar a bordo do nosso ônibus e criar viagens que transformam.

Visão Geral da Função:

Buscamos um(a) DataOps Engineer para ser o pilar de confiabilidade, automação e governança da nossa plataforma de dados. Sua missão é aplicar os princípios de DevOps, SRE e Engenharia de Software para construir e operar um ecossistema de dados de classe mundial. Você irá garantir que nossos pipelines de dados e modelos de IA sejam robustos, escaláveis, seguros e entreguem dados confiáveis na velocidade que o negócio precisa.

Você será responsável por transformar nossa infraestrutura de dados em código, implementar CI/CD para dados, garantir observabilidade completa e orquestrar fluxos complexos, permitindo que nossas equipes de Analytics, Data Science e Machine Learning inovem com segurança e agilidade.

Responsabilidades e atribuições

  • Infraestrutura como Código (IaC) e Automação: Projetar, provisionar e gerenciar nossa infraestrutura de dados (AWS, GCP) utilizando Terraform. Automatizar tudo, desde a configuração de redes e permissões até o auto-scaling de clusters.
  • Orquestração e CI/CD para Dados: Construir e otimizar pipelines de CI/CD (GitHub Actions) para automação de testes, validação de schemas e deploy seguro de fluxos de dados, transformações (dbt) e modelos de ML.
  • Pipelines de Dados Robustos: Orquestrar fluxos de dados complexos (batch e streaming) com ferramentas como Airflow, Kafka, Flink, garantindo recuperação automática de falhas, alertas proativos e execução eficiente.
  • Observabilidade e Confiabilidade (Data SRE): Implementar um sistema de monitoramento completo com Prometheus, Grafana ou Datadog. Definir e garantir SLAs, SLOs e SLIs para os pipelines de dados, liderando a resposta a incidentes e a análise de causa raiz.
  • Qualidade de Dados e Governança: Integrar frameworks de testes automatizados de dados (Great Expectations, dbt tests) no ciclo de desenvolvimento. Implementar governança de dados com versionamento de schemas, catalogação e controle de linhagem (data lineage).
  • Performance e Otimização de Custos (FinOps): Otimizar o desempenho e o custo de e pipelines em ambientes distribuídos. Implementar estratégias de particionamento, cache e paralelização para garantir a eficiência dos nossos recursos de cloud.
  • Parceria Estratégica: Atuar como um parceiro técnico para as equipes de Engenharia de Dados, ML Engineering e Ciência de Dados, fornecendo uma plataforma estável e dados confiáveis para acelerar a inovação e a entrega de valor.

Requisitos e qualificações

  • Proficiência em Python, SQL e automação de scripts (shell).
  • Experiência sólida com Infrastructure as Code (Terraform) para ambientes de dados.
  • Experiência prática na construção de pipelines de CI/CD (GitHub Actions, GitLab CI, Jenkins) aplicados a dados e ML.
  • Profundo conhecimento em orquestradores de workflow, especialmente Apache Airflow.
  • Vivência com processamento de dados em larga escala usando Apache Spark (batch e streaming).
  • Familiaridade com o ecossistema de dados moderno, incluindo ferramentas como dbt, Kafka, Flink e Airbyte.
  • Experiência na implementação de monitoramento e observabilidade com ferramentas como Prometheus, Grafana ou ELK Stack.
Diferenciais (Conhecimentos Avançados):
  • Experiência com múltiplas plataformas de cloud (AWS, GCP, Azure) e Databricks.
  • Conhecimento de arquiteturas modernas como Data Lakehouse e Data Mesh.
  • Vivência com frameworks de teste de dados (ex: Great Expectations, Soda).
  • Experiência com orquestração de containers com Kubernetes (e ferramentas como Kubeflow).
  • Conhecimento em bases de dados analíticas (OLAP) como ClickHouse, Pinot ou Trino.
  • Familiaridade com ferramentas de governança como Unity Catalog ou OpenMetadata.

Informações adicionais

Visando o seu bem-estar, nós oferecemos:
  • Vale Refeição no cartão Caju (flexível para outras despesas);
  • Assistência Médica com coparticipação (SulAmérica);
  • Reembolso do Gympass de acordo com o seu cargo;
  • Gratuidade na passagem de ônibus Guanabara;
  • 13° Nota;
  • Recesso remunerado;
Além disso, pensando na sua experiência, contamos com...
  • Ambiente de trabalho dinâmico e que incentiva a criatividade;
  • Horário flexível;
  • No dress code;
  • Day off no mês de aniversário.
Por que vir para a Gipsyy?
  • Oportunidade de fazer parte de uma equipe de alto impacto em um ambiente acelerado e impulsionado pela tecnologia.
  • Uma cultura de inovação, colaboração e aprendizado contínuo.
  • Nos comprometemos a criar um ambiente de trabalho diversificado e inclusivo, incentivamos candidaturas de pessoas de todos os backgrounds.

Gostou? Embarque com a gente nessa viagem

Somos a Gipsyy, uma startup de tecnologia com DNA em viagens. Temos orgulho de ser o elo digital que conecta passageiros as maiores eempresas do setor rodoviário no país.

Nossa missão é facilitar e revolucionar a experiência de compra de passagens, tornando as viagens rodoviárias mais acessíveis, digitais e convenientes para todos.

Estamos constantemente em busca de talentos inovadores e apaixonados por tecnologia e viagens, que queiram fazer a diferença e crescer conosco.

E aí, embarca nessa com a gente?


  • Lead - Data Engineer |

    2 semanas atrás


    Remoto, Brasil Grupo Autoglass Tempo inteiro R$90.000 - R$120.000 por ano

    Descrição da vagaOlá :DBuscamos um profissional para liderar o time de Data Engineer (DataOps) da Autoglass Tech Esse profissional possui o compromisso de garantir a entrega contínua, confiável e automatizada de dados para consumo analítico e operacional, liderando a equipe técnica e promovendo integração entre engenharia de dados, governança de...

  • Spec Data Engineer

    Há 4 horas


    Remoto, Brasil Invillia Tempo inteiro R$90.000 - R$120.000 por ano

    Aproxime-se. A Invillia não apenas transformou a forma como as empresas mais revolucionárias do mundo criam e desenvolvem estratégias, negócios e produtos digitais.Inovou também a maneira como pessoas apaixonadas por tecnologia, de qualquer lugar do planeta, podem interagir, evoluir, mais conectados do que nunca.Para a Invillia, não importa onde você...

  • Data Developer

    2 semanas atrás


    Remoto, Brasil Ci&T Tempo inteiro R$60.000 - R$120.000 por ano

    We are tech transformation specialists, uniting human expertise with AI to create scalable tech solutions.With over 7.400 CI&Ters around the world, we've built partnerships with more than 1,000 clients during our 30 years of history. Artificial Intelligence is our reality.We are looking for a Data Developer with strong knowledge in developing and maintaining...


  • Remoto, Brasil Flutter Entertainment Tempo inteiro R$120.000 - R$250.000 por ano

    About the RoleAs a Senior Data Engineering Manager on the Data Platform team, you will lead our mission to build and scale a modern data platform that supports analytics, regulatory reporting and AI-driven products. You will manage a team of Data Engineers, DataOps and Data Quality specialists, guiding the transformation of raw data into trusted,...