GovMind

Auditoria Inteligente de Licitações Públicas

78%

Redução no tempo médio de auditoria

de processos licitatórios

340%

Aumento na detecção de possíveis

irregularidades comparado ao processo

manual

Papel

Lead Product Designer

Empresa

GovTech Brasil

Período

8 meses (2025)

Equipe

2 Designer, 3 Devs, 1 PM

TL;DR

O Problema

Auditorias de licitações demoravam semanas e deixavam passar

irregularidades críticas. Processo manual não escalava.

A Solução

IA que analisa documentos, identifica padrões suspeitos e sugere

achados, mantendo o auditor no controle das decisões finais.

O Resultado

78% menos tempo de auditoria. 340% mais irregularidades detectadas.

12 órgãos em produção em 8 meses.

Contexto

GovTech B2G focada em tribunais de contas e controladorias. Com a

popularização de LLMs em 2024, surgiu janela competitiva: automatizar análise de

documentos complexos antes dos gigantes.

Usuários

Auditores Sêniores

10+ anos de experiência, céticos com

automação, valorizam precisão acima de

velocidade

Gestores de Auditoria

Focados em produtividade, precisam

justificar ROI de novas ferramentas

Estado Inicial

15 dias úteis por processo licitatório (100% manual)

Relatórios em formato livre, sem padronização

Fila de 200+ processos aguardando auditoria (um único tribunal)

O Dilema Central

Como criar confiança em uma IA que

analisa decisões de milhões de reais?

O desafio não era técnico, era psicológico e organizacional.

Auditores passaram décadas desenvolvendo expertise. Pedir que

confiassem em uma "caixa preta" era impensável.

Não podíamos errar

Um falso positivo seria apenas incômodo. Um falso

negativo (não detectar irregularidade real) poderia

gerar prejuízo público milionário.

Não podíamos ser lentos

Tribunais de contas têm prazos legais. Se a ferramenta

não fosse significativamente mais rápida, não teria

proposta de valor.

Não podíamos substituir o auditor

Resistência interna seria fatal. A ferramenta precisava

ser vista como "assistente inteligente", não como

ameaça.

Não podíamos ser opacos

Decisões de auditoria precisam ser justificadas

juridicamente. "A IA disse" jamais seria argumento

válido.

"Como fazer auditores experientes confiarem suas

decisões a uma tecnologia que eles não entendem

completamente?"

Decisões de Design

Decisão Estratégica Central

AI First vs AI Enhanced

A decisão mais crítica do projeto: criar uma ferramenta de automação

total ou de assistência inteligente?

AI First (Automação Total)

O caminho não escolhido

Proposta

IA processa tudo automaticamente. Humano

só valida no final. Processos simples rodam

sem intervenção.

Vantagens

+

10x mais rápido que AI Enhanced

+

Wow effect competitivo forte

+

Custo operacional menor

Riscos

Falso negativo = prejuízo público milionário

Resistência organizacional fatal

"IA decidiu" não é argumento jurídico válido

AI Enhanced (Assistência)

Caminho escolhido ✓

Proposta

IA sugere, humano decide. Validação em

cada etapa. Controle total do auditor sobre

decisões finais.

Vantagens

+

Adoção gradual e orgânica

+

Decisões juridicamente defensáveis

+

Confiança se constrói no uso

Trade-offs

Menos "disruptivo" no pitch

Requer mais trabalho do usuário

ROI mais lento de mostrar

Por que AI Enhanced venceu

Contexto de alto risco: Um erro grave em modo automático seria catastrófico para reputação e poderia

causar prejuízo público real.

Barreira cultural: Auditores passaram décadas construindo expertise. Pedir que confiassem decisões

críticas a uma caixa preta seria suicídio comercial.

Requisito jurídico: Decisões de auditoria precisam ser justificadas juridicamente. "A IA disse" jamais

seria argumento válido em tribunal.

Trade-off assumido: Aceitamos menos "wow effect" e crescimento mais lento em troca de confiança,

adoção sustentável e zero risco reputacional.

Decisões de Design

Definimos três pilares estratégicos que guiariam todas as decisões de

produto e design:

Pilar 01

Transparência radical

A IA nunca poderia ser uma caixa preta. Cada

sugestão precisava vir acompanhada de

evidência clara e rastreável.

Sempre mostrar trecho exato do documento que

gerou o alerta

Explicar em linguagem simples o motivo da

flagragem

Permitir contestação e correção de falsos

positivos

Pilar 02

Controle humano total

A IA sugere, o auditor decide. Nenhuma ação

automática sem aprovação explícita do usuário.

Toda sugestão pode ser aceita, modificada ou

descartada

Auditor pode adicionar achados que a IA não

detectou

Relatório final reflete decisão humana, não output

da IA

Pilar 03

Progressividade de uso

Usuários céticos poderiam começar usando

funções básicas e gradualmente aumentar a

confiança na automação.

Modo "sugestões desligadas" para quem quer só

upload de documentos

Níveis de sensibilidade ajustáveis (menos ou mais

alertas)

Estatísticas de acurácia visíveis para construir

confiança ao longo do tempo

A decisão mais difícil

Cogitamos criar uma versão "totalmente automatizada" para processos de baixo

risco. Seria mais rápido, mais barato e um diferencial competitivo claro.

Decidimos não fazer. O risco reputacional de um erro grave em modo automático

seria catastrófico. Priorizamos confiança de longo prazo sobre velocidade de

curto prazo.

A Solução

Arquitetura em 4 Etapas

Cada etapa com validação humana antes de prosseguir. Nenhum atalho, nenhuma

automação oculta.

01

Ingestão de documentos

Upload com OCR automático. Preview lado a lado com texto extraído.

02

Análise assistida

IA identifica cláusulas suspeitas baseada em jurisprudência do TCU. Cada alerta mostra trecho original,

fundamento legal e score de confiança.

03

Curadoria de achados

Auditor confirma, descarta ou complementa cada sugestão. Interface tipo code review.

04

Geração de relatório

Estruturado mas 100% editável. Segue template oficial do TCU.

Decisões técnicas críticas

RAG sobre Fine-Tuning

Em vez de treinar a IA do zero, utilizamos RAG para que o modelo consulte dados e documentos confiáveis em tempo real, garantindo respostas mais precisas, atualizadas e auditáveis.

Múltiplos LLMs em paralelo

GPT-4 e Claude 3 rodando em paralelo. Quando divergem, marca "Revisão Obrigatória".

Aumentou confiança sem duplicar custo.

Infraestrutura híbrida

Documentos sensíveis em servidor on-premise. Apenas embeddings na nuvem. LGPD sem

sacrificar performance.

Impacto

78%

Redução no tempo de auditoria

De 15 dias úteis para 3,3 dias em média

340%

Aumento na detecção de irregularidades

IA encontra padrões que humanos perdem em

documentos extensos

92%

Taxa de acurácia da IA

Alertas confirmados como irregularidades reais após

6 meses de uso

89%

Taxa de adoção ativa

Auditores usando semanalmente após onboarding

(expectativa era 60%)

"No começo eu ignorava 90% das sugestões da IA. Hoje

aceito 85%. Não porque confio cegamente, mas porque

entendo o raciocínio por trás de cada alerta."

— Auditor Sênior, TCE-SP, 24 anos de experiência

Impacto no negócio

R$ 3,2M

ARR após 8 meses

12

Órgãos em produção

240%

Net Revenue Retention

Aprendizados

Lição 01

Transparência não é opcional, é requisito de produto

30% do desenvolvimento foi em features de explicabilidade. Foi o que permitiu

adoção. Usuários não confiam em caixas pretas em contextos de alto risco.

Lição 02

Automação gradual > Automação total

Usuários precisam entender como a ferramenta pensa antes de delegar decisões

críticas. Progressão (manual → sugestões → semi-automação) criou jornada

natural de adoção.

Lição 03

Confiança se constrói com transparência, não com

acurácia

Melhorar acurácia de 87% para 92% teve impacto marginal na adoção. O que

funcionou foi mostrar estatísticas em tempo real e permitir que auditores vissem

evolução.

O que não funcionou

Explicação técnica demais

Gerou bastante insegurança, não confiança.

Confiança desbalanceada

Uns questionaram tudo. Outros aceitaram sem critério.

Contexto jurídico sensível

Ambos os comportamentos eram arriscados.

Antes (explicação técnica demais)

Depois (após alguns usuários ficaram mais inseguros e demoraram mais para decidir)

IA em contextos críticos não é sobre substituir humanos, mas sobre

amplificar suas capacidades. O futuro é "humano + máquina", não

"humano vs máquina".

Obrigado por ler

Lucas Costa — GovMind, 2025

Create a free website with Framer, the website builder loved by startups, designers and agencies.