Tributação algorítmica: como conciliar eficiência fiscal e direitos fundamentais?
Desafio não é impedir o avanço tecnológico, mas assegurar que ele se desenvolva sob as garantias constitucionais
A inteligência artificial tem remodelado profundamente a atuação da Administração Tributária. De métodos analógicos e reativos, passamos à adoção de sistemas automatizados de classificação de risco, auditoria digital e cruzamento massivo de dados. Essa transformação visa à eficiência: otimizar recursos, reduzir custos e ampliar o alcance fiscal. No entanto, é preciso perguntar: a que custo?
Os avanços tecnológicos, embora promissores, trazem sérias implicações constitucionais. O devido processo legal, a publicidade dos atos administrativos e os direitos à ampla defesa e ao contraditório não podem ser relativizados pela lógica da eficiência. Em especial, quando decisões que afetam diretamente a esfera jurídica do contribuinte passam a ser tomadas por sistemas automatizados, muitas vezes sem transparência ou possibilidade real de contestação.
Danielle Citron cunhou a expressão technological due process para descrever esse problema: decisões públicas delegadas a algoritmos, sem justificativa inteligível ou supervisão humana efetiva, colocam em risco a própria noção de legalidade e de responsabilização estatal[2]. A fiscalização tributária algorítmica, quando opaca, tende a escapar do controle democrático e jurídico.
Outro ponto crítico é o risco de discriminação algorítmica. Os sistemas de IA aprendem a partir de dados históricos, que, por sua vez, refletem padrões de desigualdade. Isso pode levar à sobreposição fiscal em grupos vulneráveis, como microempresas, profissionais autônomos e contribuintes de menor capacidade contributiva. Sem avaliações de impacto algorítmico, há grande probabilidade de replicação e ampliação de injustiças no exercício do poder de tributar[3].
A falta de transparência é agravada pelo funcionamento em “caixa-preta” de muitos desses sistemas. Os critérios de seleção fiscal, parâmetros de risco e decisões automatizadas não são publicizados nem auditáveis pelos contribuintes, contrariando o princípio da publicidade (CF/88, artigo 37) e o direito à explicação previsto na Lei Geral de Proteção de Dados[4]. Quando um contribuinte é auditado ou tem a restituição retida sem conhecer os fundamentos que motivaram tal medida, há uma ruptura na lógica republicana da Administração Pública.
O PL 2338/2023, ao propor regras para decisões automatizadas no setor público, avança ao exigir explicabilidade e possibilidade de revisão humana. No entanto, sua efetividade dependerá da existência de instrumentos concretos de controle e responsabilização. Sem auditorias independentes e canais institucionais de contestação, o risco é de se manter uma fachada de legalidade sem substância protetiva[5].
As questões técnicas da tributação algorítmica não devem obscurecer seu caráter eminentemente político e jurídico. O que está em jogo é a legitimidade da ação fiscal em uma era de automação. A governança desses sistemas precisa ser robusta, democrática e baseada em evidências. Modelos como o AI Act europeu e a Avaliação de Impacto Algorítmico canadense já oferecem diretrizes para uso responsável da IA em contextos sensíveis, impondo obrigações de transparência, revisão e participação social.
No Brasil, a realidade ainda está distante desses parâmetros. Contribuintes não têm acesso aos critérios utilizados nos algoritmos de seleção, tampouco participam da definição de políticas que afetam diretamente sua relação com o fisco. Isso cria uma assimetria informacional grave e mina a confiança no sistema tributário[7].
Estudos demonstram que a confiança nas tecnologias públicas depende da combinação entre transparência, responsabilidade institucional e engajamento social. Goossens, Keymolen e Stanojević destacam que tecnologias emergentes não são neutras — seu impacto depende das estruturas de governança que as cercam[8]. Se não houver controle externo eficaz, revisão dos sistemas automatizados e abertura à participação dos contribuintes, o poder de tributar poderá se transformar em poder de vigiar sem limites.
Não se trata de rejeitar a tecnologia, mas de moldá-la constitucionalmente. A eficiência arrecadatória não deve ser buscada à revelia da legalidade, da proporcionalidade e dos direitos fundamentais. A meta-auditoria, conceito que propõe a fiscalização das próprias estruturas de governança dos algoritmos, deve ganhar centralidade nas estratégias de compliance público[9].
A Constituição Federal deve ser o código-fonte da inteligência fiscal. Isso significa submeter algoritmos à lógica republicana, aos controles democráticos e ao Estado de Direito. Nenhum sistema automatizado pode ter mais autoridade que a Constituição Federal. Para isso, é necessário garantir instâncias de revisão, critérios objetivos e auditáveis e canais acessíveis de impugnação por parte dos contribuintes.
O uso da inteligência artificial pela Administração Tributária não é apenas uma agenda de inovação, mas uma pauta de cidadania. A fiscalização tributária já é amplamente digital, por isso, o desafio não é impedir o avanço tecnológico, mas assegurar que ele se desenvolva sob as garantias do Estado de Direito.
Por: JOTA





