Política Inovadora da Receita Federal
A Receita Federal deu um passo significativo para moldar o debate global sobre o uso responsável da Inteligência Artificial (IA) no setor público, ao anunciar sua nova Política de Inteligência Artificial. Este marco regulatório estabelece princípios éticos, jurídicos e técnicos que orientam a aplicação dessa tecnologia nas atividades tributárias e aduaneiras. A apresentação oficial foi feita pelo Subsecretário de Gestão Corporativa, auditor-fiscal Juliano Neves, na Organização das Nações Unidas (ONU) na última sexta-feira (27 de março), durante a “2026 ECOSOC Special Meeting on International Cooperation in Tax Matters”.
Esta política se alinha aos principais padrões internacionais e avança ao introduzir salvaguardas inovadoras, reafirmando a centralidade da decisão humana, a soberania dos dados públicos e a responsabilidade dos agentes públicos nas ações realizadas.
Decisões Humanas no Centro do Processo
Centrar a autonomia humana é um dos pilares fundamentais da nova política. Embora a Inteligência Artificial sirva como um suporte, a Receita Federal deixa claro que as decisões administrativas e os atos legais são de total responsabilidade dos servidores públicos. A norma garante que nenhum sistema de IA possa restringir, substituir ou influenciar as competências legais da administração tributária e aduaneira.
A avaliação crítica, independente e bem fundamentada feita pelos agentes públicos é considerada a última linha de defesa contra decisões automatizadas que possam ser injustas ou inadequadas. Em resumo, a IA serve como apoio, mas a tomada de decisões permanece nas mãos humanas, garantindo que os contribuintes tenham total acesso a mecanismos de revisão e defesa administrativa.
Curadoria Específica para Inteligência Artificial Generativa
Um aspecto inovador da política brasileira é a criação de um cargo inédito: o Curador de Inteligência Artificial Generativa. Enquanto normas internacionais tratam de modelos de uso geral de maneira ampla, a Receita Federal institui um responsável específico por monitorar continuamente erros, vieses e alucinações, além de avaliar a qualidade, coerência e precisão das respostas geradas pelos sistemas de IA.
Esse curador também assegurará que os sistemas operem dentro de diretrizes éticas e institucionais, proporcionando um nível de supervisão operacional muito mais detalhado e adaptado às particularidades da IA generativa.
Limites Éticos e Responsabilidade Pessoal
A nova política é clara ao afirmar que o uso impróprio da Inteligência Artificial resulta em responsabilidade disciplinar individual. O descumprimento das salvaguardas éticas e técnicas não será tratado como falha de sistema, mas como uma ação pessoal do agente público. Além disso, a Receita Federal proíbe explicitamente o uso de IA para manipulação subliminar, classificação social e vigilância em massa, posicionando, assim, a política brasileira entre as mais rigorosas em termos de proteção de direitos fundamentais.
Soberania sobre Dados Públicos
Em relação à proteção de dados, a política vai além das exigências tradicionais de privacidade. A Receita Federal proíbe que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar ou melhorar modelos comerciais de Inteligência Artificial. Sempre que possível, a instituição prioriza ambientes tecnológicos que garantam governança técnica integral, assegurando controle sobre armazenamento, processamento, localização geográfica, infraestrutura e acessos.
O uso de ambientes externos ou não soberanos só será permitido após uma rigorosa análise técnica, reforçando assim a proteção dos dados fiscais e aduaneiros.
Gestão de Riscos e Segurança em Múltiplos Níveis
Para garantir segurança e resiliência, a política estabelece uma robusta estrutura de gestão de riscos para sistemas de IA, que inclui proteção contra falhas técnicas, ataques cibernéticos e usos indevidos. Cada iniciativa da Receita Federal será avaliada em três níveis: pela unidade de negócio responsável, pela área de tecnologia da informação e pelo comitê de TI institucional.
Esse modelo fornece um acompanhamento contínuo dos riscos ao longo de todo o ciclo de vida da solução, garantindo que cada implementação seja cuidadosamente monitorada.
Inovação com Responsabilidade: O Modelo “Fast Track”
Buscando equilibrar segurança e inovação, a Receita Federal implementou um mecanismo ágil para o desenvolvimento de soluções experimentais. Projetos considerados de baixo risco podem ser desenvolvidos em ambientes controlados, sem a necessidade de aprovação prévia do comitê superior, permitindo assim testes rápidos e aprendizado institucional, sem abrir mão da governança.
Esse modelo promove um dinamismo maior do que estruturas rígidas encontradas em outras jurisdições, especialmente em comparação com sistemas destinados exclusivamente a projetos de alto risco.
Capacitação Contínua e Cultura de IA
Reconhecendo as limitações da tecnologia, a Receita Federal também instituiu um plano permanente de capacitação em Inteligência Artificial para seus servidores, com o intuito de garantir que todos compreendam o funcionamento dos modelos, seus limites, os riscos envolvidos e a importância da intervenção humana na tomada de decisões.
Transparência e Auditabilidade
Por fim, a política reafirma o compromisso com a transparência. Os sistemas devem ser projetados para explicar de forma clara os critérios e processos que levam a determinados resultados, priorizando soluções que permitam auditorias técnicas e institucionais. A explicabilidade é considerada um elemento central para a legitimidade do uso da Inteligência Artificial no setor público.
Modelo de Referência Internacional
Com esta nova política, a Receita Federal estabelece uma abordagem que combina inovação tecnológica, proteção de direitos, segurança jurídica, responsabilidade individual e soberania digital, tornando-se assim um modelo de referência em termos de uso ético da Inteligência Artificial no setor público.
