Arquiteto de Dados
- business Talent Job Seeker
- workFull-time
Atividades:
- Projetar arquiteturas de dados que suportam o ciclo completo de vida de machine learning, incluindo coleta, processamento, treinamento, implantação, monitoramento e retreinamento de modelos.
- Estruturar pipelines de dados escaláveis e eficientes para aquisição, transformação e armazenamento de grandes volumes de dados em ambientes on-premise e na nuvem (Azure, AWS, Google Cloud).
- Desenvolver soluções para integração de modelos de machine learning em sistemas de produção, utilizando práticas e ferramentas de MLOps, como Kubeflow, MLflow ou Vertex AI.
- Estratégias de versionamento de dados, modelos e código, garantindo rastreabilidade e definição de governança em projetos de aprendizado de máquina.
- Automatizar processos de treinamento, implantação e monitoramento de modelos com ferramentas de CI/CD e orquestração de workflows, como Jenkins, Airflow ou Argo Workflows.
- Colaborar com equipes multidisciplinares para garantir a integração entre engenharia de dados, ciência de dados e TI, alinhando soluções técnicas aos objetivos de negócio.
- Gerir uma infraestrutura de dados e machine learning, garantindo escalabilidade, segurança e alta disponibilidade das soluções.
- Estabelecer boas práticas de governança de dados, segurança e conformidade, incluindo conformidade com LGPD e GDPR.
- Pesquisar e implementar tecnologias emergentes em MLOps para manter a Dadoteca na vanguarda do mercado de análise de dados.
Requisitos:
- Formação superior em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
- Experiência consolidada em arquitetura de dados e operacionalização de modelos de machine learning (MLOps).
- Conhecimento avançado em ferramentas de MLOps, como MLflow, Kubeflow, TFX, SageMaker ou Vertex AI.
- Proficiência em linguagens de programação como Python ou Scala, com foco em engenharia de dados e aprendizado de máquina.
- Experiência com bancos de dados relacionais (PostgreSQL, MySQL) e não relacionais (MongoDB, Cassandra, DynamoDB).
- Conhecimento em orquestração de fluxos de trabalho (Apache Airflow, Argo) e versionamento de código com Git.
- Experiência em plataformas de nuvem (Azure, AWS, Google Cloud) e seus serviços relacionados a dados e machine learning.
- Familiaridade com infraestrutura como código (IaC), como Terraform ou CloudFormation.
- Noções sólidas de segurança de dados, governança e conformidade regulatória.
Competências:
- Capacidade de alinhar soluções técnicas aos objetivos estratégicos da empresa e dos clientes.
- Habilidade para orientar equipes multidisciplinares e supervisionar implementações complexas.
- Proatividade na automação de processos manuais e repetitivos, promovendo eficiência operacional.
- Abordagem analítica para identificar desafios e propor soluções inovadoras.
- Competência para explicar conceitos técnicos de maneira acessível a públicos não técnicos.
Diferenciais:
- Certificações em MLOps e nuvem, como AWS Certified Machine Learning, Google Cloud Professional Data Engineer ou Microsoft Certified: Azure AI Engineer Associate.
- Experiência com monitoramento de modelos em produção, incluindo deriva de dados e modelos.
- Conhecimento em arquiteturas de microsserviços e implementação de APIs para integração de modelos.
- Experiência com Big Data e ferramentas como Apache Spark, Databricks ou Hadoop.
- Familiaridade com frameworks de aprendizado profundo, como TensorFlow e PyTorch.
Conheça o Programa + Dadoteca:
- Gympass
- Zenklub
- Bônus anual de renovação contratual
- Incentivo financeiro para curso de idiomas
- Incentivo financeiro para certificações Microsoft, Databricks, GCP, AWS
- Ifood benefícios
Place of work
Talent Job Seeker
United States of America
United States of America
Employer profile
Identifica el mejor Talento con Talent Job Seeker
Local radius
- New York City
- Los Angeles
- Chicago
- Brooklyn
- Houston
- Queens
- Philadelphia
- Phoenix
- Manhattan
- San Antonio
Job ID: 9127851 / Ref: b5d24b0e02690f82b8f1c0fe9fcb5de2