Uma Nova Abordagem para a Inteligência Artificial na Gestão Pública
A Receita Federal deu um passo significativo no cenário global ao apresentar sua Política de Inteligência Artificial, uma iniciativa que busca regular o uso responsável dessa tecnologia no setor público. Este marco legal, que reúne diretrizes éticas, jurídicas e técnicas, visa aprimorar as atividades tributárias e aduaneiras. O Subsecretário de Gestão Corporativa, auditor-fiscal Juliano Neves, revelou a nova política durante uma apresentação na Organização das Nações Unidas (ONU) na última sexta-feira, 27 de março, no evento ‘2026 ECOSOC Special Meeting on International Cooperation in Tax Matters’.
Alinhada aos principais padrões globais, a política brasileira destaca-se ao implementar salvaguardas inovadoras, enfatizando a centralidade do ser humano nas decisões, a soberania sobre os dados públicos e a responsabilidade dos servidores públicos envolvidos.
Decisões Humanas no Centro da Política
Um dos principais pilares da nova política é a preservação da autonomia humana. Embora a Inteligência Artificial possa ser utilizada como ferramenta auxiliar, a Receita Federal afirma claramente que as decisões administrativas e atos legais são de responsabilidade exclusiva dos servidores públicos. Isso significa que nenhum sistema de IA poderá substituir ou condicionar as competências legais da administração tributária e aduaneira. O julgamento crítico e fundamentado do agente público se torna, assim, a última linha de defesa contra decisões automatizadas que possam ser injustas ou inadequadas. Em outras palavras, a IA serve de apoio, mas a decisão final sempre será humana, garantindo que os contribuintes tenham acesso a mecanismos de revisão e defesa administrativa.
Inovação com Supervisão: O Curador de Inteligência Artificial Generativa
Um aspecto inovador da política é a criação do Curador de Inteligência Artificial Generativa. Enquanto as normas internacionais abordam modelos de uso geral de maneira ampla, a Receita Federal designou um agente específico para monitorar continuamente erros, vieses e alucinações. Essa função também é responsável por avaliar a qualidade, coerência e precisão das respostas fornecidas pelas ferramentas de IA, além de assegurar que essas operem dentro de padrões éticos e institucionais. Essa estrutura proporciona uma supervisão operacional muito mais detalhada, adequada à natureza probabilística da Inteligência Artificial generativa.
Limites Éticos e Responsabilidade Pessoal
A política deixa claro que o uso inapropriado de Inteligência Artificial pode resultar em responsabilização disciplinar individual. O não cumprimento das diretrizes éticas e técnicas estabelecidas não é considerado apenas uma falha sistêmica, mas sim uma conduta pessoal do agente público. Além disso, a Receita Federal proíbe expressamente o uso de IA para manipulação subliminar, classificação social e vigilância em massa, posicionando-se entre as legislações mais restritivas e protetivas em termos de direitos fundamentais.
Soberania Sobre Dados Públicos
Em relação à proteção de dados, a política vai além das exigências tradicionais de privacidade. A Receita Federal proíbe explicitamente que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar ou melhorar modelos comerciais de Inteligência Artificial. Sempre que possível, a instituição busca ambientes tecnológicos com governança técnica integral, garantindo controle sobre armazenamento, processamento, localização geográfica, infraestrutura e acessos. O uso de ambientes externos só é permitido após uma rigorosa análise técnica, reforçando assim a proteção dos dados fiscais e aduaneiros.
Gestão de Riscos e Segurança em Múltiplas Camadas
A política cria uma estrutura robusta para a gestão de riscos associados à IA, exigindo resiliência contra falhas técnicas, ataques cibernéticos e abusos. Cada iniciativa é submetida a uma avaliação em três níveis: unidade de negócio responsável, área de tecnologia da informação e comitê de TI institucional. Essa abordagem garante um acompanhamento contínuo dos riscos ao longo de toda a vida útil da solução.
Modelo Inovador de Desenvolvimento: O “Fast Track”
Para equilibrar segurança e inovação, a Receita Federal introduziu um modelo ágil para o desenvolvimento de protótipos e soluções experimentais. Projetos de baixo risco podem ser realizados em ambientes controlados sem a necessidade de aprovação prévia, permitindo testes rápidos e aprendizado institucional enquanto se mantém a governança. Essa abordagem é mais dinâmica do que as estruturas excessivamente rígidas observadas em outras jurisdições, especialmente em comparação com regimes que se concentram apenas em sistemas de alto risco.
Capacitação Contínua e Cultura de Inteligência Artificial
Reconhecendo que a tecnologia é probabilística e pode apresentar limitações, a Receita Federal implementou um plano permanente de capacitação em Inteligência Artificial. O objetivo é que os servidores compreendam não apenas o funcionamento dos modelos, mas também seus limites e os riscos envolvidos, além de reconhecer a importância do papel humano na tomada de decisões.
Compromisso com a Transparência e Auditabilidade
Por último, a nova política reafirma o compromisso com a transparência. Os sistemas devem ser capazes de explicar, de maneira acessível, os critérios e processos que geram resultados, priorizando soluções que permitam auditorias técnicas e institucionais. A explicabilidade é vista como um elemento fundamental na legitimidade do uso da Inteligência Artificial no setor público.
Um Modelo de Referência Internacional
Com essa nova política, a Receita Federal não apenas promove a inovação tecnológica, mas também se compromete com a proteção dos direitos dos cidadãos, a segurança jurídica e a responsabilidade individual, consolidando sua soberania digital no cenário internacional.
