GovMind
Auditoria Inteligente de Licitações Públicas
78%
Redução no tempo médio de auditoria
de processos licitatórios
340%
Aumento na detecção de possíveis
irregularidades comparado ao processo
manual




Papel
Lead Product Designer
Empresa
GovTech Brasil
Período
8 meses (2025)
Equipe
2 Designer, 3 Devs, 1 PM
TL;DR
O Problema
Auditorias de licitações demoravam semanas e deixavam passar
irregularidades críticas. Processo manual não escalava.
A Solução
IA que analisa documentos, identifica padrões suspeitos e sugere
achados, mantendo o auditor no controle das decisões finais.
O Resultado
78% menos tempo de auditoria. 340% mais irregularidades detectadas.
12 órgãos em produção em 8 meses.
Contexto
GovTech B2G focada em tribunais de contas e controladorias. Com a
popularização de LLMs em 2024, surgiu janela competitiva: automatizar análise de
documentos complexos antes dos gigantes.
Usuários
Auditores Sêniores
10+ anos de experiência, céticos com
automação, valorizam precisão acima de
velocidade
Gestores de Auditoria
Focados em produtividade, precisam
justificar ROI de novas ferramentas
Estado Inicial
15 dias úteis por processo licitatório (100% manual)
Relatórios em formato livre, sem padronização
Fila de 200+ processos aguardando auditoria (um único tribunal)
O Dilema Central
Como criar confiança em uma IA que
analisa decisões de milhões de reais?
O desafio não era técnico, era psicológico e organizacional.
Auditores passaram décadas desenvolvendo expertise. Pedir que
confiassem em uma "caixa preta" era impensável.
Não podíamos errar
Um falso positivo seria apenas incômodo. Um falso
negativo (não detectar irregularidade real) poderia
gerar prejuízo público milionário.
Não podíamos ser lentos
Tribunais de contas têm prazos legais. Se a ferramenta
não fosse significativamente mais rápida, não teria
proposta de valor.
Não podíamos substituir o auditor
Resistência interna seria fatal. A ferramenta precisava
ser vista como "assistente inteligente", não como
ameaça.
Não podíamos ser opacos
Decisões de auditoria precisam ser justificadas
juridicamente. "A IA disse" jamais seria argumento
válido.
"Como fazer auditores experientes confiarem suas
decisões a uma tecnologia que eles não entendem
completamente?"
Decisões de Design
Decisão Estratégica Central
AI First vs AI Enhanced
A decisão mais crítica do projeto: criar uma ferramenta de automação
total ou de assistência inteligente?
AI First (Automação Total)
O caminho não escolhido
Proposta
IA processa tudo automaticamente. Humano
só valida no final. Processos simples rodam
sem intervenção.
Vantagens
+
10x mais rápido que AI Enhanced
+
Wow effect competitivo forte
+
Custo operacional menor
Riscos
−
Falso negativo = prejuízo público milionário
−
Resistência organizacional fatal
−
"IA decidiu" não é argumento jurídico válido
AI Enhanced (Assistência)
Caminho escolhido ✓
Proposta
IA sugere, humano decide. Validação em
cada etapa. Controle total do auditor sobre
decisões finais.
Vantagens
+
Adoção gradual e orgânica
+
Decisões juridicamente defensáveis
+
Confiança se constrói no uso
Trade-offs
↔
Menos "disruptivo" no pitch
↔
Requer mais trabalho do usuário
↔
ROI mais lento de mostrar
Por que AI Enhanced venceu
Contexto de alto risco: Um erro grave em modo automático seria catastrófico para reputação e poderia
causar prejuízo público real.
Barreira cultural: Auditores passaram décadas construindo expertise. Pedir que confiassem decisões
críticas a uma caixa preta seria suicídio comercial.
Requisito jurídico: Decisões de auditoria precisam ser justificadas juridicamente. "A IA disse" jamais
seria argumento válido em tribunal.
Trade-off assumido: Aceitamos menos "wow effect" e crescimento mais lento em troca de confiança,
adoção sustentável e zero risco reputacional.
Decisões de Design
Definimos três pilares estratégicos que guiariam todas as decisões de
produto e design:
Pilar 01
Transparência radical
A IA nunca poderia ser uma caixa preta. Cada
sugestão precisava vir acompanhada de
evidência clara e rastreável.
→
Sempre mostrar trecho exato do documento que
gerou o alerta
→
Explicar em linguagem simples o motivo da
flagragem
→
Permitir contestação e correção de falsos
positivos
Pilar 02
Controle humano total
A IA sugere, o auditor decide. Nenhuma ação
automática sem aprovação explícita do usuário.
→
Toda sugestão pode ser aceita, modificada ou
descartada
→
Auditor pode adicionar achados que a IA não
detectou
→
Relatório final reflete decisão humana, não output
da IA
Pilar 03
Progressividade de uso
Usuários céticos poderiam começar usando
funções básicas e gradualmente aumentar a
confiança na automação.
→
Modo "sugestões desligadas" para quem quer só
upload de documentos
→
Níveis de sensibilidade ajustáveis (menos ou mais
alertas)
→
Estatísticas de acurácia visíveis para construir
confiança ao longo do tempo
A decisão mais difícil
Cogitamos criar uma versão "totalmente automatizada" para processos de baixo
risco. Seria mais rápido, mais barato e um diferencial competitivo claro.
Decidimos não fazer. O risco reputacional de um erro grave em modo automático
seria catastrófico. Priorizamos confiança de longo prazo sobre velocidade de
curto prazo.
A Solução
Arquitetura em 4 Etapas
Cada etapa com validação humana antes de prosseguir. Nenhum atalho, nenhuma
automação oculta.
01
Ingestão de documentos
Upload com OCR automático. Preview lado a lado com texto extraído.
02
Análise assistida
IA identifica cláusulas suspeitas baseada em jurisprudência do TCU. Cada alerta mostra trecho original,
fundamento legal e score de confiança.
03
Curadoria de achados
Auditor confirma, descarta ou complementa cada sugestão. Interface tipo code review.
04
Geração de relatório
Estruturado mas 100% editável. Segue template oficial do TCU.








Decisões técnicas críticas
RAG sobre Fine-Tuning
Em vez de treinar a IA do zero, utilizamos RAG para que o modelo consulte dados e documentos confiáveis em tempo real, garantindo respostas mais precisas, atualizadas e auditáveis.
Múltiplos LLMs em paralelo
GPT-4 e Claude 3 rodando em paralelo. Quando divergem, marca "Revisão Obrigatória".
Aumentou confiança sem duplicar custo.
Infraestrutura híbrida
Documentos sensíveis em servidor on-premise. Apenas embeddings na nuvem. LGPD sem
sacrificar performance.
Impacto
78%
Redução no tempo de auditoria
De 15 dias úteis para 3,3 dias em média
340%
Aumento na detecção de irregularidades
IA encontra padrões que humanos perdem em
documentos extensos
92%
Taxa de acurácia da IA
Alertas confirmados como irregularidades reais após
6 meses de uso
89%
Taxa de adoção ativa
Auditores usando semanalmente após onboarding
(expectativa era 60%)
"No começo eu ignorava 90% das sugestões da IA. Hoje
aceito 85%. Não porque confio cegamente, mas porque
entendo o raciocínio por trás de cada alerta."
— Auditor Sênior, TCE-SP, 24 anos de experiência
Impacto no negócio
R$ 3,2M
ARR após 8 meses
12
Órgãos em produção
240%
Net Revenue Retention
Aprendizados
Lição 01
Transparência não é opcional, é requisito de produto
30% do desenvolvimento foi em features de explicabilidade. Foi o que permitiu
adoção. Usuários não confiam em caixas pretas em contextos de alto risco.
Lição 02
Automação gradual > Automação total
Usuários precisam entender como a ferramenta pensa antes de delegar decisões
críticas. Progressão (manual → sugestões → semi-automação) criou jornada
natural de adoção.
Lição 03
Confiança se constrói com transparência, não com
acurácia
Melhorar acurácia de 87% para 92% teve impacto marginal na adoção. O que
funcionou foi mostrar estatísticas em tempo real e permitir que auditores vissem
evolução.
O que não funcionou
Explicação técnica demais
Gerou bastante insegurança, não confiança.
Confiança desbalanceada
Uns questionaram tudo. Outros aceitaram sem critério.
Contexto jurídico sensível
Ambos os comportamentos eram arriscados.
Antes (explicação técnica demais)

Depois (após alguns usuários ficaram mais inseguros e demoraram mais para decidir)


IA em contextos críticos não é sobre substituir humanos, mas sobre
amplificar suas capacidades. O futuro é "humano + máquina", não
"humano vs máquina".
Obrigado por ler
Lucas Costa — GovMind, 2025