- setembro 2, 2025
- 7:30 pm

Vinicius Reis
Vinicius Reis é Program Manager de GenAI na Brasilseg (BB Seguros), atuando em projetos de inteligência artificial generativa, blockchain, inovação aberta e intraempreendedorismo. Engenheiro civil de formação, possui especialização em Administração de Empresas pela FGV. Com experiência em transformar desafios corporativos em soluções tecnológicas, também é conselheiro do IFL Jovem SP, instituto onde foi presidente e segue apoiando a formação de jovens lideranças.
Philosophy Eats AI: por que sua filosofia decide o ROI (e como operacionalizar isso em 30 dias)
O ChatGPT alcançou 100 milhões de usuários em 2 meses, ritmo recorde para um app de consumo. Número assim não é ruído, é um sinal de produto-market fit e de pressão executiva para transformar IA generativa em margem, neste trimestre. A tese: filosofia come AI. Teleologia (propósito), epistemologia (o que conta como “saber”) e ontologia (como representamos o mundo) determinam onde o ROI aparece, ou evapora em retrabalho e comitês.
Se a adoção foi meteórica, a governança precisa ser cirúrgica. Um princípio simples guia esta peça: clareza filosófica → políticas e prompts → pilotos com métricas. O objetivo é financeiro: -15% de retrabalho em 90 dias, -10% de custo/caso, -20% de decisões reprovadas em comitê em 60 dias. Métrica antes de mito, payback antes de poesia.
Partindo do começo: Por que a maioria ainda falha (e onde a filosofia entra)
O gargalo não é GPU. É cultura. Em 2025, 57% das empresas ainda relatam dificuldade para construir uma cultura data-driven. Isso significa que mais da metade decide com “achismos com roupa de dado”, sem um “para quê” explícito (teleologia), sem critérios do que vale como evidência (epistemologia) e sem um glossário comum de entidades e relações (ontologia). Resultado: rework, desalinhamento e guinadas táticas que atrasam 2–4 ciclos de sprint por trimestre.
Há um atalho conceitual, e ele é prático. A MIT Sloan Management Review cunhou a provocação “Philosophy Eats AI”: sem clareza filosófica, você não colhe retornos superiores nem vantagem competitiva sustentada em IA. Traduzindo para o P&L: modelos bons + premissas ruins = KPIs ótimos no slide, fracos no DRE. A filosofia alinha como a IA deve decidir, o que aceitar como conhecimento e como representar o negócio, antes do primeiro prompt entrar no backlog.
Governança sem execução cansa. Execução sem governança queima. A síntese vem de outra linha da MIT SMR: princípios de IA responsável são estáveis, transparência, justiça, não maleficência, responsabilidade, privacidade, mas o desafio é operacionalizar isso na rotina, com métricas e limites de risco por caso de uso. Dica pragmática: Trate princípios como requisitos funcionais com números, não como pôster na parede.
O Framework “Philosophy → Policy → Pilot” (PPP)
Meta executiva: em 30 dias, publicar a Carta de Filosofia de IA (1 página), mapear 3 cenários críticos em políticas e prompts, e rodar 1 piloto por domínio com métricas de CSAT, NPS e custo/caso. Três passos. Três prazos. Três números de impacto.
Passo 1 — Declare a Filosofia (1 página, 3 horas de trabalho)
Alavanca: reduzir a ambiguidade de decisão em ≥20% no comitê.
Entrega: Carta de Filosofia de IA (máx. 500–700 palavras) + glossário.
1. Teleologia (o “para quê”). Defina objetivos mensuráveis por domínio. Ex.: “No atendimento de sinistros, priorizar redução de TMA (tempo médio de atendimento) em 25% sem reduzir CSAT < 85/100.” Número protege trade-offs. Um para quê claro evita ciclos de aprovação extras (-1 reunião por caso).
2. Epistemologia (o “o que conta como saber”). Liste fontes confiáveis, critérios de validade e limiares. Ex.: “Para recomendações financeiras, aceitar apenas dados com timestamp < 24h, fonte A ou B, confiança ≥ 0,8 e evidência verificável.” Isso reduz a chance de “alucinações custosas” (-30% de retrabalho em respostas refeitas).
3. Ontologia (o “como representamos”). Catálogo de entidades (Cliente, Apólice, Sinistro, Cobertura), relações e IDs canônicos. Ex.: “Cobertura é vinculada a ApóliceID; sinônimo proibido: ‘plano’.” Um glossário de 100–300 termos corta ambiguidade em prompt e evita integrações mal mapeadas (-2–3 dias por projeto).
Template de 1 página (resumo)
● Propósito por domínio: 3–5 bullets com metas (% ou R$).
● Conhecimento válido: fontes, SLAs, limiares (ex.: precisão ≥ 92%).
● Ontologia mínima: 10–20 entidades + relações chave.
● Princípios de trade-off: “Segurança > velocidade quando risco regulatório > R$ 50 mil/caso.”
● Mecanismo de revisão: cadência quinzenal; SLAs de atualização (≤ 14 dias).
Por que funciona: enquadra discussões em números antes de narrativas. A Carta vira “testbench” para prompts e políticas, economizando 1–2 sprints no trimestre por evitar refações.
Passo 2 — Converta Filosofia em Políticas & Prompts (3 cenários críticos)
Alavanca: -20% de decisões reprovadas em 60 dias.
Entrega: 3 Playcards (1 por cenário) com políticas, prompts canônicos e limites de risco.
Cenário A — Velocidade vs. Precisão (CX).
● Política: quando a fila > 1,5× a capacidade, o bot prioriza resolução em 1a resposta (FCR); quando a fila < 1,5×, prioriza explicabilidade.
● Prompt canônico: “Se risco regulatório > R$50 mil, pare e peça revisão humana. Caso contrário, responda em até 120 palavras com 1 evidência citável.”
● Métrica-alvo: FCR +12 p.p. e TMA -25% em 8 semanas; CSAT ≥ 85/100.
Cenário B — Acurácia vs. Cobertura (Risco).
● Política: em underwriting, FN (fraude não detectada) custa 10× um FP. Logo, o threshold do classificador sobe +3 p.p. quando taxa de disputa > 2%.
● Prompt canônico: “Liste 3 sinais de alerta com pesos e probabilidade (%). Se probabilidade < 60%, sugerir perícia.”
● Métrica-alvo: perdas evitadas +R$ X/mês; tempo de análise +5% máx..
Cenário C — Personalização vs. Conformidade (Marketing).
● Política: não usar atributos sensíveis; explicabilidade obrigatória para ofertas com ticket > R$ 1.000.
● Prompt canônico: “Gere 2 ofertas com base em histórico T-90 dias e explique em 2 frases por que cada uma é coerente com as políticas Y/Z.”
● Métrica-alvo: uplift de conversão +8–12%, NPS (Net Promoter Score) ≥ +40.
Checklist de Playcard (por cenário)
● Regra de decisão numérica (≥ 1 limite).
● Prompt canônico com estrutura de saída (tamanho, campos, evidências).
● Tabelas de risco (FP, FN, custo em R$ por tipo).
● Kill-switch (ex.: “se precisão < 90% por 3 dias, desliga”).
● Owner (squad), SLA (resposta ≤ 2s), auditoria (amostra 5% semanal).
Por que funciona: converte princípios em instruções executáveis — boas para humanos e máquinas. Define limites mensuráveis (thresholds) que protegem DRE e regulatório caso a caso.
Passo 3 — Pilote com Métricas de Valor (8 semanas, cadência semanal)
Alavanca: -10% de custo/caso sem ferir experiência.
Entrega: 1 piloto por domínio (CX, Risco, Crédito, Jurídico). Baseline 4 semanas, beta 8 semanas.
Instrumentação mínima (por piloto):
Design do experimento (A/B pragmático):
● Grupo A (controle): processo atual por 4 semanas.
● Grupo B (teste): PPP ativado por 8 semanas.
● Gate 1 (Semana 2): se CSAT < 80 ou erro crítico ≥ 1, ajuste de prompt/política em 48h.
● Gate 2 (Semana 4): se custo/caso −5% e NPS ≥ +35, ampliar exposição +20% do tráfego.
● Gate 3 (Semana 8): se reprovações –20% e retrabalho –15%, promover para produção com rollout 25% → 100% em 2 semanas.
Por que funciona: mede valor no idioma do CFO (R$ por caso, perdas evitadas) e no idioma do cliente (CSAT/NPS). O piloto vira argumento numérico para priorização no comitê de investimentos (CapEx/OpEx) e acelera o payback.
Sem filosofia, prompt é palpite. Com filosofia, pipeline vira payback — e payback, ao contrário de opinião, fecha o mês. Dados falam; métricas decidem; filosofia governa. Mãos à obra.
Referências essenciais
● Adoção meteórica: ChatGPT alcançou 100 milhões de usuários em 2 meses (UBS via Reuters).
● Cultura data-driven: 57% das empresas ainda lutam para criar cultura data-driven (MIT Sloan Management Review, 2025; base Wavestone/NVP 2024). (MIT Sloan Management Review, static1.squarespace.com)
● Filosofia come AI: fundamentos de teleologia, epistemologia e ontologia aplicados a IA (MIT Sloan Management Review). (MIT Sloan Management Review)
● Princípios de IA responsável e operacionalização: síntese MIT Sloan Management Review. (MIT Sloan Management Review)
Observação: As metas propostas (-15%, -20%, CSAT ≥ 85, NPS ≥ +40, precisão ≥ 92%) são parametrizáveis por contexto e partem de práticas descritas e tendências executivas discutidas na MIT SMR; use-as como ponto de partida para calibrar a sua realidade setorial. (MIT Sloan Management Review)
Gostaria de se tornar um investidor-anjo e investir nas melhores startups do Brasil? Seja um associado FEA Angels!
