Editar Vagas

Total de registros encontrados: 1
Vaga Data Cadastro Título CNPJ Código Vaga Requisitos Descrição Técnicas
30/05/2025 18:53:22 teste 29293923000160 fmlf1Pi_IKGaGUScUOokPvdRM5pcG6eC Formação Acadêmica Mestrado ou Doutorado em Ciência da Computação, Engenharia Elétrica, Estatística, Matemática Aplicada ou áreas correlatas (ex.: Bioinformática, Robótica). Desejável pesquisa publicada em conferências internacionais de IA (NeurIPS, ICML, ICLR). Experiência Profissional Mínimo de 5 anos atuando com projetos de Machine Learning e Deep Learning em ambiente corporativo. Histórico comprovado de entrega de pelo menos duas soluções de IA em produção, escaláveis para ≥100.000 usuários. Certificações Técnicas AWS Certified Machine Learning – Specialty (ou equivalente em Azure/GCP). Certificação TensorFlow Developer Certificate ou PyTorch Certified Developer. (Diferencial) Google Cloud Professional Data Engineer. Linguagens e Frameworks Python avançado: NumPy, pandas, scikit-learn, TensorFlow 2.x e/ou PyTorch ≥1.7. R&D em NLP: experiência com Hugging Face Transformers (BERT, GPT-X) e spaCy. Visão Computacional: OpenCV, Detectron2 ou KerasCV para detecção, segmentação e tracking. Arquitetura e DevOps Criação de pipelines MLOps utilizando Docker, Kubernetes e Helm Charts. Automação CI/CD (GitLab CI, Jenkins) para retraining e deploy contínuo de modelos. Infraestrutura como código com Terraform ou CloudFormation. Banco de Dados e Big Data Proficiência em SQL (PostgreSQL, MySQL) e NoSQL (MongoDB, Cassandra). Experiência com processamento de datasets massivos em Spark ou Dask. Observabilidade e Monitoramento Implementação de métricas e alertas com Prometheus/Grafana ou CloudWatch. Familiaridade com conceitos de A/B testing para modelos de recomendação. Governança e Ética Domínio de práticas de fairness, explicabilidade (SHAP, LIME) e mitigação de vieses. Conhecimento em LGPD/GDPR aplicado a pipelines de dados sensíveis. Soft Skills Excelente comunicação em português e inglês (escrita e oral). Habilidade de traduzir resultados técnicos para audiências não-técnicas. Experiência comprovada em liderança de squads ágeis (Scrum Master ou Product Owner). Inovação e Pesquisa Participação ativa em hackathons internos ou comunitários. Capacidade de propor e validar POCs com novas arquiteturas (Graph Neural Networks, AutoML). Ferramentas Complementares Conhecimento em CI de versionamento de modelos com MLflow ou DVC. Habilidade para criar dashboards interativos em Power BI, Tableau ou Dash. Idiomas Adicionais Desejável nível intermediário de espanhol (para colaboração com equipes LATAM). Disponibilidade Modelo híbrido, com disponibilidade mínima de 2 dias por semana no escritório de São Paulo. Flexibilidade para viagens curtas (<10% do tempo) a clientes ou conferências. Diferenciais Fictícios Experiência em Quantum Machine Learning (Qiskit, PennyLane). Participação em projetos open source de IA com mais de 500 estrelas no GitHub. Contribuições em blogs ou podcasts técnicos especializados em IA. A InovaTech, empresa líder em soluções tecnológicas voltadas para transformação digital e inovação constante, está em busca de um Especialista de Inteligência Artificial para integrar seu time de P&D. Nosso ambiente é dinâmico e colaborativo, com foco em pesquisa avançada, desenvolvimento de produtos de ponta e aplicação de técnicas de IA para resolver desafios reais de clientes em diversos setores, como finanças, saúde, varejo e indústria. Se você é apaixonado por algoritmos, aprendizado de máquina e deseja ver seu trabalho impactar processos e resultados de grandes organizações, essa oportunidade é para você. Principais Responsabilidades Pesquisa e Desenvolvimento de Modelos: Projetar, testar e implementar modelos de aprendizagem supervisionada, não supervisionada e por reforço, utilizando bibliotecas como TensorFlow, PyTorch e scikit-learn. MLOps e Infraestrutura: Estruturar pipelines de treinamento, validação e deploy de modelos em ambientes on-premise e cloud (AWS, Azure, GCP), garantindo escalabilidade, monitoramento de performance e automação de retraining. Engenharia de Dados: Colaborar com engenheiros de dados na coleta, preparação e limpeza de grandes volumes de dados (Big Data), aplicando técnicas de feature engineering, redução de dimensionalidade e balanceamento de classes. Análise de Resultados: Avaliar métricas de performance (precisão, recall, F1-score, AUC) e elaborar relatórios técnicos e dashboards em ferramentas como Power BI ou Grafana, apresentando insights para equipes de produto e stakeholders. Governança e Ética em IA: Assegurar que os projetos estejam alinhados às melhores práticas de governança de dados, privacidade (LGPD, GDPR) e princípios de IA responsável, incluindo mitigação de vieses e explicabilidade de modelos. Mentoria e Transferência de Conhecimento: Orientar desenvolvedores juniores e estagiários em técnicas de IA, revisões de código e boas práticas de versão de modelos, promovendo cultura de aprendizado contínuo. Prospecção de Novas Tecnologias: Manter-se atualizado sobre tendências e avanços em IA e Machine Learning, propondo POCs (proof of concept) para adoção de frameworks inovadores e microserviços inteligentes. Requisitos Técnicos Formação: Bacharelado ou superior completo em Ciência da Computação, Engenharia, Matemática, Estatística ou áreas correlatas. Desejável mestrado ou doutorado com foco em IA. Experiência: Mínimo de 4 anos de experiência prática em projetos de Machine Learning e Deep Learning, com histórico comprovado de entregas bem-sucedidas em ambientes corporativos. Linguagens e Ferramentas: Proficiência em Python (bibliotecas: NumPy, pandas, matplotlib, TensorFlow, PyTorch). Conhecimento avançado em SQL para consulta e manipulação de dados. Familiaridade com R, Java ou C++ será considerado diferencial. DevOps e Cloud: Experiência com Docker, Kubernetes, CI/CD (Jenkins, GitLab CI), e serviços de nuvem (AWS SageMaker, Azure ML, Google AI Platform). Modelagem e Arquitetura: Capacidade de desenhar arquiteturas escaláveis de microserviços com APIs RESTful para consumo de modelos. Soft Skills: Excelente comunicação verbal e escrita, capacidade de articulação de conceitos técnicos para públicos não-técnicos, trabalho em equipe e autonomia. Competências Desejáveis Experiência com processamento de linguagem natural (NLP), incluindo transformers e BERT/GPT. Conhecimento em visão computacional (OpenCV, Keras) para detecção de objetos e segmentação. Vivência em metodologias ágeis (Scrum, Kanban) e uso de ferramentas como Jira e Confluence. Participação em publicações acadêmicas, conferências ou repositórios de código aberto (GitHub). Benefícios e Cultura Remuneração Competitiva: Salário compatível com o mercado, variável por performance e senioridade. Pacote de Benefícios: Plano de saúde e odontológico, vale-refeição ou alimentação, seguro de vida, auxílio home office e subsídio para educação continuada. Ambiente Flexível: Modelo híbrido de trabalho (presencial e remoto), com horários flexíveis. Desenvolvimento Profissional: Acesso a treinamentos, cursos, certificações e participação em eventos nacionais e internacionais. Inovação Contínua: Incentivo a prototipagem de ideias, hackathons internos e tempo reservado para pesquisa (20% do horário semanal para desenvolvimento de projetos pessoais alinhados ao negócio). Sobre a InovaTech A InovaTech atua há mais de 10 anos no mercado de tecnologia, entregando soluções end-to-end para empresas de diferentes portes. Nosso portfólio contempla desde sistemas de automação industrial até plataformas de analytics avançados. Valorizamos a diversidade, o trabalho colaborativo e a busca incessante por excelência. Aqui, você terá oportunidade de impactar positivamente negócios globais, crescer em um ambiente de alta performance e contribuir para a construção de um futuro impulsionado por tecnologia. Se você busca um desafio estimulante, com liberdade para inovar e contribuir para projetos de alta relevância, envie seu currículo e letter of intent para recrutamento@inovatech.com.br. Estamos ansiosos para conhecer seu talento e alinharmos juntos o próximo passo da sua carreira em IA! 1. Infraestrutura de Hardware Nós de Treinamento (GPU-Cluster) 4× servidores com GPUs NVIDIA Tesla T4 (16 GB VRAM cada) para POCs e pequenos treinamentos. 2× servidores com GPUs NVIDIA A100 (80 GB VRAM) dedicadas a treinamentos de modelos de larga escala. Nós de Inferência (CPU-Optimized) 6× instâncias com 16 vCPU e 64 GB RAM, SSD NVMe 1 TB. Armazenamento Data Lake: 20 TB em buckets S3 (ou equivalente em Azure Blob Storage/GCP Storage) com versionamento ativado. Volumes de bloco para logs e checkpoints: SSDs NVMe em RAID-1 de 2 TB. 2. Plataforma e Orquestração Kubernetes (EKS no AWS ou GKE no Google Cloud) Versão mínima: 1.26+. Helm 3 para deployment de charts. Horizontal Pod Autoscaler (HPA) configurado para CPU e memória. Containerização Docker 24.0+ Imagens base: Ubuntu 22.04 LTS + Python 3.10 Infraestrutura como Código Terraform 1.5 para provisionamento de VPC, sub-redes, clusters e roles IAM. 3. Linguagens, Frameworks e Bibliotecas Runtime e Linguagens Python 3.10 (principal), opcionalmente R 4.x para análises estatísticas. Machine Learning & Deep Learning TensorFlow 2.12 PyTorch 2.x scikit-learn 1.2 Processamento de Linguagem Natural Hugging Face Transformers 4.30 (BERT, GPT-X) spaCy 3.x Visão Computacional OpenCV 4.7 Detectron2 0.7 Big Data & Streaming Apache Spark 3.3 (PySpark) Apache Kafka 3.x 4. MLOps, CI/CD e Versionamento Pipelines de Treinamento Kubeflow Pipelines 2.x ou MLflow 2.x para tracking de experimentos. DVC 2.x para versionamento de conjuntos de dados e checkpoints. Integração Contínua / Entrega Contínua GitLab CI 15.x (ou Jenkins 2.4×) Testes automatizados com pytest; cobertura mínima: 85%. Deploy de Modelos TensorFlow Serving 2.x ou TorchServe 0.8 APIs RESTful em FastAPI 0.95 5. Banco de Dados e Armazenamento de Dados Relacional PostgreSQL 15 para metadados e configurações. NoSQL / Documentos MongoDB 6.0 para logs de eventos e dados semiestruturados. Cache & Mensageria Redis 7.0 para features e caching de inferência. Kafka para pipelines de ingestão em tempo real. 6. Segurança e Governança Rede VPC privada com sub-redes públicas/privadas; NACLs e Security Groups restritivos. VPN ou AWS Direct Connect para ambientes híbridos. Autenticação e Autorização OAuth2/OpenID Connect via Keycloak ou AWS Cognito. Políticas IAM de menor privilégio. Criptografia TLS 1.3 em todas as comunicações HTTP/gRPC. Criptografia em repouso (S3 SSE-KMS, EBS volumes criptografados). Compliance Conformidade com LGPD/GDPR para tratamento de dados pessoais. Ferramentas de explicabilidade (SHAP, LIME) para auditoria de vieses. 7. Observabilidade e Monitoramento Métricas e Alertas Prometheus 2.x para coleta de métricas de uso de CPU/GPU e throughput. Grafana 10.x para dashboards de performance (latência de inferência, erros 5xx, etc.). Logs Centralizados ELK Stack: Elasticsearch 8.x, Logstash, Kibana 8.x. Tracing Distribuído Jaeger para rastreamento de requisições entre microserviços. 8. Requisitos de Performance e SLA Inferência Latência por requisição ≤ 100 ms (P95). Throughput mínimo: 1 000 requisições simultâneas escaláveis. Treinamento Throughput de datasets de 100 GB/h usando 4 GPUs T4. Disponibilidade SLA de 99,9% em ambiente de produção. Disaster recovery: RTO máximo de 1 h e RPO de 15 minutos. 9. Qualidade de Código e Documentação Styles & Linters flake8, black para padronização de código Python. Testes pytest com mocks de pipelines e coverage mínimo de 85%. Documentação Sphinx + ReadTheDocs para bibliotecas internas. OpenAPI/Swagger para APIs de inferência.