O item 6.2 do edital do CNU, “Inteligência Artificial, automação e produtividade no setor público”, vai cobrar do candidato a compreensão conceitual do que é IA, como ela se diferencia de automação tradicional e, sobretudo, como essas tecnologias afetam a produtividade, a qualidade e a accountability dos serviços estatais.
Para começar, automação é a substituição ou apoio à execução de tarefas por sistemas. Ela pode ser transacional (seguir regras claras) ou cognitiva (interpretar linguagem, imagem, padrões). A Inteligência Artificial (IA) é um conjunto de técnicas que permite aos sistemas executarem tarefas que exigiriam percepção, interpretação ou decisão: classificação, previsão, recomendação, diálogo, visão computacional. Em termos de prova, vale lembrar que nem toda automação usa IA; mas a IA frequentemente habilita automação inteligente de tarefas antes consideradas “não programáveis”.
No serviço público, a automação aparece em camadas. Na base, a RPA (Robotic Process Automation) reproduz cliques e preenchimentos em sistemas legados seguindo regras determinísticas. Em um segundo nível, fala-se em IPA (Intelligent Process Automation), que combina RPA com IA para ler documentos via OCR, extrair entidades com processamento de linguagem natural (PLN) e decidir próximos passos por modelos preditivos. Uma terceira camada mira assistentes e motores de decisão que operam com dados históricos, regras de negócio e, cada vez mais, modelos generativos de linguagem.
Produtividade no setor público não se resume a “fazer mais com menos”. Em linguagem de avaliação, a produtividade cruza eficiência (insumos por unidade de serviço) com efetividade (resultados para o cidadão). Por isso, mensurar impacto de IA e de automação exige combinar métricas de tempo de ciclo, fila/backlog, custo unitário, qualidade da decisão, erros evitados e satisfação do usuário. Em provas, a pista é: não basta reduzir tempo; é preciso garantir legalidade, equidade e transparência.
Um clássico é a triagem inteligente de demandas, em que modelos priorizam casos por risco ou urgência. A promessa é reduzir o tempo de resposta e alocar melhor a capacidade operacional. A armadilha é reproduzir vieses: se o histórico reflete desigualdades, o algoritmo pode perpetuá-las. A resposta de boa governança é combinar dados representativos, monitoramento de desempenho por recortes (grupos/populações), explicabilidade proporcional ao risco e revisão humana para casos sensíveis.
Outro campo fértil é o atendimento ao cidadão. Chatbots de regras já respondem perguntas frequentes; com PLN e modelos generativos, surgem assistentes conversacionais capazes de entender solicitações complexas e guiar o usuário pelos serviços. Para o setor público, o pulo do gato está no enraizamento em bases oficiais (ex.: RAG ou retrieval-augmented generation) e em trilhas de auditoria que registram fontes, versões e justificativas. Assim, reduz-se o risco de respostas imprecisas e preserva-se a prestação de contas.
Na retaguarda, a IA acelera análise de documentos (classificação automática, extração de itens contratuais, detecção de inconsistências), fiscalizações (análise de risco, amostragem inteligente, detecção de anomalias), compras públicas (conformidade e mercado de referências) e gestão de pessoas (previsão de capacidade, alocação por competências). Em todos os casos, a regra é “humano no circuito” quando a decisão impacta direitos, com políticas claras de delegação e desempate por julgamento humano.
Automação também depende do desenho de processos. Process mining descobre como os fluxos realmente ocorrem a partir de logs, identifica gargalos e não conformidades e prioriza pontos com melhor retorno. Automatizar sem revisar o processo costuma “endurecer” ineficiências. Uma sequência didática de prova é: descoberta → conformidade → melhoria → automação → monitoramento.
Do lado da engenharia, surgem termos que a banca pode cobrar de forma conceitual. MLOps é o ciclo de vida de modelos: versionamento de dados e código, validações, implantação, monitoramento de drift, re-treino e gerenciamento de risco. Em IA generativa, fala-se ainda em orquestração, guardrails (regras e checagens), avaliação por casos de teste e red teaming (testes adversariais). O recado: no setor público, processo é tão importante quanto modelo.
A governança de IA no governo articula princípios e práticas. Entre os mais cobrados: legalidade, finalidade e minimização no tratamento de dados; transparência compatível com a sensibilidade do caso; não discriminação e avaliação de impacto algorítmico; segurança e gestão de incidentes; accountability com papéis definidos (dono do processo, do dado e do modelo). Um desenho frequente é o de camadas de risco: quanto maior o impacto potencial, maior o nível de explicabilidade, testes, auditorias independentes e participação humana.
No tema “produtividade”, as provas valorizam causalidade: como saber se a IA aumentou a produtividade? Resposta: estabeleça linha de base antes da implantação, defina indicadores de processo e de resultado, aplique testes controlados quando possível (pilotos, fases), monitore efeitos colaterais (re-trabalho, qualidade, equidade) e consolide ganhos sustentáveis (documentação, treinamento, manutenção orçamentária). Ganho pontual que se perde por falta de manutenção não é produtividade duradoura.
Também aparece a pauta de aquisições e contratos. IA não é “plug and play”: requer requisitos funcionais e não funcionais, cláusulas de governança de dados, propriedade intelectual, portabilidade, SLAs e planos de continuidade. Em soluções generativas, é comum exigir fontes auditáveis e mecanismos de contenção (limites de escopo, filtros, logs). A maturidade contratual vira diferencial em produtividade porque reduz retrabalho e risco.
O fator humano é decisivo. A automação realoca tarefas, não apenas substitui. Servidores ficam menos tempo em rotinas repetitivas e mais tempo em análise, interlocução com o cidadão e melhoria de processos. Para isso, são essenciais capacitação, gestão da mudança, descrição de papéis e metas por resultado, evitando medir “presença digital” em vez de entregas. Produtividade sustentável combina tecnologia + processo + pessoas.
Cresce, ainda, o uso de modelos generativos no apoio a redação administrativa, sumarização de autos, elaboração de minutas e atendimento. Esses modelos são úteis quando ancorados em bases normativas do órgão e supervisionados nas saídas. A banca pode explorar termos como alucinação, grounding e revisão humana qualificada. O candidato deve vincular esses conceitos à exigência de fidedignidade e responsabilização.
A automação não elimina a necessidade de ética pública. Decisões que afetam benefícios, sanções ou direitos devem ser justificáveis e recorríveis. O desenho deve prever canais de contestação, logs e explicações operacionais (“por que este caso foi priorizado?”, “quais critérios foram acionados?”). Isso liga IA à transparência ativa e à prestação de contas.
Por fim, conecte IA e automação aos objetivos de valor público: ampliar acesso, reduzir assimetrias, dar previsibilidade e proteger direitos. O recado de prova é simples e exigente: tecnologia é meio; o fim é um serviço mais rápido, mais justo e mais confiável.
Questão 1 (inédita)
Em um órgão público, foi implantada uma solução que lê documentos, extrai campos e direciona processos automaticamente, reduzindo o tempo de ciclo em 40% sem aumento de erro. Do ponto de vista conceitual, a descrição corresponde principalmente a:
a) Substituição integral do julgamento humano por decisão automatizada de alto risco.
b) Automação inteligente de processos combinando captura de dados e regras de negócio, com ganhos de eficiência mensuráveis.
c) Ferramenta de business intelligence voltada exclusivamente a painéis gerenciais.
d) Adoção de método ágil, sem mudanças técnicas de processo.
e) Chatbot de atendimento com foco apenas em perguntas frequentes.
Gabarito: b.
Comentário: O caso descreve leitura automática, extração e encaminhamento — elementos típicos de automação inteligente (ex.: OCR+PLN+regras) com ganho de eficiência comprovado. Não há indicação de decisão de alto risco sem revisão humana (a), nem de BI (c), método ágil (d) ou chatbot (e).
Questão 2 (inédita)
Para aumentar a produtividade com IA mantendo accountability, um órgão define que modelos que afetam direitos devem ter monitoramento de desempenho por grupos, registro de fontes, possibilidade de revisão humana e relatórios periódicos de explicabilidade compatíveis com o risco. Essa política reflete principalmente:
a) Prioridade absoluta à velocidade, abrindo mão de garantias processuais.
b) Governança de IA baseada em camadas de risco, com transparência e controle proporcionais ao impacto.
c) Estratégia de coleta máxima de dados para qualquer finalidade futura.
d) Migração integral para sistemas legados sem gestão de modelos.
e) Foco exclusivo em indicadores de custo, sem medir qualidade.
Gabarito: b.
Comentário: A política descreve governança por risco: mais explicabilidade e controle quando o impacto é maior, preservando transparência e revisão humana. As alternativas (a), (c), (d) e (e) contrariam princípios de accountability e boa administração.
![[BLACK FRIDAY 2025] Ilimitada Dupla Prorrogado – Cabeçalho](https://blog-static.infra.grancursosonline.com.br/wp-content/uploads/2025/11/27151344/bf25-ai-dupla-prorrogado-cabecalho.webp)
![[BLACK FRIDAY 2025] Ilimitada Dupla Prorrogado – Post](https://blog-static.infra.grancursosonline.com.br/wp-content/uploads/2025/11/27151935/bf25-ai-dupla-prorrogado-post.webp)



Participe da conversa