A trilha é um evento híbrido, presencial em São Paulo e remoto na sua casa, que tem a duração de um dia inteiro com sete palestras e um painel de discussão.
Quinta-feira, 18 de Setembro de 2025
09h às 19h
ProMagno
Avenida Professora Ida Kolb - 513 /
Jardim das Laranjeiras
São Paulo -
SP
ACESSO PRESENCIAL OU REMOTO COM TRANSMISSÃO ONLINE
Faça sua inscrição em qualquer trilha Premium presencial e ganhe um workshop Bônus e uma mentoria bônus no mesmo dia! Mas não perca tempo pois as vagas são limitadas.
Confira a lista completa de workshops.
Confira a lista completa de mentorias.
Você também ganha acesso Premium à TDC Community por um ano, com acesso a workshops e mentorias semanais.
Inscrição online
1 trilha:
de R$
305 por R$
186
Inscrição online
1 trilha:
de R$
305 por R$
275
Inscrição online
1 trilha: R$ 305
Inscrição híbrida (presencial + online)
1 trilha:
de R$
490 por R$
310
2 trilhas:
de R$
840 por R$
560
3 trilhas:
de R$
1.180 por R$
790
Inscrição híbrida (presencial + online)
1 trilha:
de R$
490 por R$
420
2 trilhas:
de R$
840 por R$
730
3 trilhas:
de R$
1.180 por R$
1.070
Inscrição híbrida (presencial + online)
1 trilha: R$ 490
2 trilhas: R$ 840
3 trilhas: R$ 1.180
Programação Stadium: |
---|
08:00 às 08:55 Credenciamento |
09:00 às 10:00 Abertura do evento e mini keynotes |
Programação desta Trilha: |
---|
Abertura da trilha pela coordenação10:10 às 10:25 Aqui os coordenadores se apresentam e fazem uma introdução para a trilha. |
Somos bombardeados diariamente com "IA isso, IA aquilo", e, quando vamos consultar os preços das super IAs como GPT, Meta ou qualquer outra, percebemos que customizar esses modelos para nossas aplicações pode sair bem caro. Nessa apresentação, vou mostrar que, na maioria das vezes, o volume de conteúdo que usamos como base de conhecimento é relativamente pequeno ? e que é totalmente possível, com Kubernetes e modelos LLM open source, montar uma solução robusta para suas necessidades, sem se preocupar com limite de tokens ou com a fatura da nuvem no fim do mês. |
Finetuning vs. Engenharia de Prompt: O Veredito de 50+ Apps Após 1 Ano em ProduçãoAnna C S Medeiros (Airia)11:15 às 11:50 O investimento em fine-tuning de LLMs se paga a longo prazo ou a engenharia de prompt avançada é uma alternativa mais sustentável? Baseado na análise de mais de 50 aplicações no ar, esta sessão oferece uma visão sobre o tradeoff real entre essas duas abordagens. Vamos olhar os aprendizados de um ano de operação, quantificando os resultados e respondendo: Quando o custo computacional do fine-tuning foi justificado pela performance? Como a complexidade da engenharia de prompt evoluiu e impactou a manutenção? Dos nossos mais de 50 modelos, quantos precisaram ser atualizados e por quê? Esta não é uma palestra sobre "como" fazer fine-tuning, mas sobre "quando" e "se" você deve fazê-lo. |
Você, desenvolvedor, já domina a criação de aplicações com LLMs, mas como garantir que as respostas geradas estão realmente adequadas? Métricas tradicionais como BLEU e ROUGE têm limitações importantes, e a avaliação manual não é escalável. Uma alternativa é o LLM-as-a-Judge, onde um modelo de linguagem avalia as respostas de outro. Com mais de 80% de concordância com avaliadores humanos (comprovado em estudos científicos), essa abordagem está transformando a forma como avaliamos qualidade em IA. Vamos explorar o uso do DeepEval: criação de métricas personalizadas e teste das respostas do seu chatbot. Uma solução moderna, escalável e confiável para avaliar seus modelos. |
Jailbreakers in the Wall ? Offensive Prompt Engineering & Defensive Guardrails for LLMMateus Fernandes (BTG Pactual)14:10 às 15:10 A palestra apresenta ataques de prompt injection e jailbreaks, que extraem conteúdos ilegais, instruções de hacking e dados sensíveis, e demonstra, como eles burlam filtros em arquiteturas reais. Em seguida, aborda técnicas de defesa que combinam políticas de moderação, fine-tuning adversário, detecção de anomalias em tempo real e técnicas de manipulação de codificações. |
RAG + Rerankers: Contexto Mais Relevante, Respostas Mais AcuradasSamuel Matioli (DataStax)15:50 às 16:25 Desenvolvedores e arquitetos de GenAI vão entender, na prática, como sistemas RAG podem ser aprimorados com rerankers que selecionam os trechos mais relevantes antes da geração de respostas. Vamos discutir abordagens de reranking baseadas em embeddings, modelos supervisionados e arquiteturas híbridas, além de demonstrar como isso impacta diretamente a qualidade das respostas e a confiança do usuário final. |
LLMs são poderosos, mas ainda alucinam e misturam fatos. Nesta palestra, apresento o GraphRAG: uma evolução do RAG (Retrieval-Augmented Generation) que incorpora grafos para dar contexto, precisão e rastreabilidade às respostas da IA. Na apresentação mostrarei como conectar LLMs a bases de conhecimento estruturadas para combater alucinações e aumentar a explicabilidade de seus modelos. Vamos explorar arquitetura, ferramentas e uma demo prática unindo IA generativa e grafos, rumo a uma IA mais confiável. |
Como o Sem Parar Criou seu Próprio Copiloto de Atendimento com IA GenerativaPedro C. Pimentel (Sem Parar) / Fernando Soares (Sem Parar)17:10 às 17:45 Nesta sessão, vamos apresentar a jornada técnica do Sem Parar na criação do Copiloto de Atendimento ? um assistente virtual desenvolvido internamente para apoiar operadores de call center com respostas inteligentes, ações recomendadas e scripts personalizados. A solução foi construída com tecnologias da Microsoft, como Azure OpenAI Service (com modelos GPT), Azure AI Search com RAG e integração com plataformas de CRM. Também abordaremos o ciclo completo de desenvolvimento, desde a arquitetura, testes e validação até a governança de IA, além dos ganhos operacionais como a redução de 9,3% no TMA e mais de 35 mil recomendações geradas com alta taxa de acerto. |
Programação da Stadium no final do dia: |
---|
18:30 às 18:35 Encerramento da trilhaOs coordenadores fazem um breve encerramento com agradecimentos. |