Faustino Júnior | Nerd de Negócio » Universo Tech

Quando a Máquina Decide: A Política Migra para Camadas Técnicas Sem Debate Público

Faustino da Rosa Junior / Divulgação
Faustino da Rosa Junior / Divulgação
Faustino Júnior | Nerd de Negócio

por Faustino Júnior | Nerd de Negócio

Publicado em 14/02/2026, às 11h53

Um tribunal na Turquia ordena a remoção de conteúdo político considerado ilegal. A plataforma tem 48 horas para cumprir. Parece simples: Estado manda, empresa executa. Mas o que acontece nas 47 horas e 59 minutos entre a ordem e a execução? Quem decide, na prática, se aquele conteúdo específico viola ou não a ordem judicial? Quem interpreta os limites da determinação? Quem define critérios para casos similares?

A resposta, cada vez mais frequente, é: um sistema automatizado.

Essa dinâmica se repete milhares de vezes por dia em jurisdições ao redor do mundo. Não se trata de substituição completa de instituições públicas por sistemas privados, mas de algo mais sutil e talvez mais preocupante: camadas específicas de decisão política estão migrando silenciosamente de parlamentos e tribunais para infraestruturas técnicas, sem que os mecanismos tradicionais de controle democrático acompanhem esse movimento.

A Regra Privada Que Governa Populações Inteiras

Para usar praticamente qualquer serviço digital essencial, cidadãos do mundo inteiro precisam aceitar documentos chamados "Termos de Serviço". Formalmente, são contratos entre usuários e empresas. Funcionalmente, operam como códigos normativos privados aplicáveis a populações maiores que a maioria dos países.

Quando plataformas como Meta, X ou Google atualizam suas políticas sobre discurso político, privacidade ou transações comerciais, elas estão alterando o ambiente normativo de bilhões de pessoas. Não há votação parlamentar. Não há debate público estruturado. Não há possibilidade real de recusa individual: aceitar é condição para existir digitalmente no mundo contemporâneo.

A União Europeia tentou impor supervisão democrática sobre esse poder através do Digital Services Act, legislação que exige transparência nas decisões de moderação e permite contestação de remoções automatizadas. Na prática, porém, a aplicação depende de auditorias complexas e as plataformas mantêm enorme margem de interpretação sobre suas obrigações. O espaço entre a norma legal formal e a regra técnica operacional permanece vasto.

Em outras jurisdições, a delegação é ainda mais explícita. A legislação turca que determina prazo de 48 horas para remoção de conteúdo não censura diretamente. Terceiriza para empresas privadas o juízo concreto sobre o que deve ser removido. O Estado estabelece objetivos políticos amplos. Sistemas automatizados das plataformas tomam milhões de decisões individuais sobre casos específicos.

O Juiz Algorítmico Que Opera Sem Garantias Processuais

Moderação de conteúdo era, tradicionalmente, trabalho editorial humano realizado em escala reduzida. Hoje é operação industrial automatizada que processa volumes impossíveis para qualquer sistema judicial convencional analisar.

Sistemas de inteligência artificial avaliam, classificam e aplicam sanções sem que os afetados compreendam exatamente os critérios utilizados. Não há presunção de inocência algorítmica. Não há direito ao contraditório. Não há garantia de revisão por instância independente. O mesmo conteúdo pode ser removido em um país e amplificado em outro, não necessariamente por diferenças legais, mas por variáveis técnicas invisíveis: histórico de interações, momento da publicação, comportamento de conexões próximas na rede.

Plataformas tentam criar legitimidade imitando processos judiciais. O Oversight Board da Meta, por exemplo, funciona como conselho de revisão para decisões de moderação. Mas sua jurisdição está limitada aos casos que a própria empresa escolhe encaminhar, é financiado pela plataforma e suas decisões dependem de implementação voluntária. Oferece a estética de revisão judicial independente sem sua estrutura constitutiva.

A Norma Que Emerge da Estatística

A transferência mais sutil de poder decisório não acontece através de proibições formais, mas pela definição de padrões operacionais que se tornam normas de fato.

Algoritmos de recomendação não censuram conteúdo explicitamente. Apenas tornam certos materiais estatisticamente menos prováveis de alcançar audiência. Repetido em escala populacional, o efeito probabilístico vira realidade normativa. Conteúdo sistematicamente ausente das recomendações sofre consequências similares à proibição, sem deixar rastro legal contestável.

Sistemas de crédito automatizados não discriminam formalmente. Atribuem pontuações baseadas em padrões históricos. Se esses padrões refletem desigualdades estruturais preexistentes, o algoritmo as perpetua sem assumir responsabilidade normativa explícita pelo resultado.

Ferramentas de triagem de currículos em processos seletivos não excluem candidatos por características protegidas legalmente. Apenas identificam "perfis compatíveis" baseando-se em contratações anteriores. Se contratações passadas foram enviesadas, o sistema codifica o viés como critério técnico neutro.

Legisladores já incorporaram essa dinâmica. O estado norte-americano de Utah aprovou restrições ao acesso de menores a redes sociais estabelecendo objetivos genéricos: verificação etária e filtragem de conteúdo inadequado. Mas quem define operacionalmente o que é conteúdo inadequado? Como funciona tecnicamente a verificação? Quais são as exceções práticas? Cada resposta técnica a essas perguntas constitui decisão normativa disfarçada de mera implementação.

Corrida Global por Controle Técnico

Governos não estão reagindo a essa migração tentando submeter algoritmos a controle democrático mais robusto. Estão competindo para construir suas próprias infraestruturas algorítmicas.

Países de todos os continentes investem massivamente em desenvolvimento de modelos nacionais de inteligência artificial. O discurso oficial fala em "soberania tecnológica". O objetivo prático é garantir que prioridades nacionais estejam embutidas na infraestrutura técnica desde sua concepção, não importadas de sistemas estrangeiros sobre os quais não há controle.

Esse movimento não democratiza poder sobre algoritmos. Desloca seu controle. Em vez de submeter decisões automatizadas a supervisão pública, transfere autoridade de corporações privadas transnacionais para aparatos estatais frequentemente opacos. A competição não é entre transparência e sigilo, mas entre diferentes centros de opacidade técnica.

Singapura trata desenvolvimento de capacidade nacional em IA como questão estratégica comparável a defesa, comprometendo recursos substanciais ao longo de anos. Os Emirados Árabes Unidos criaram estruturas ministeriais dedicadas ao tema e financiam desenvolvimento de modelos linguísticos adaptados ao árabe. A lógica subjacente é consistente: controlar a infraestrutura técnica significa influenciar como populações formulam problemas e acessam soluções.

Três Dilemas Sem Solução Institucional Clara

Essa reconfiguração parcial do poder gera questões práticas urgentes sem resposta no marco jurídico tradicional:

Quando algoritmo de moderação comete erro com consequências políticas sérias, quem assume responsabilidade legal? A plataforma que opera o sistema? A empresa que desenvolveu o modelo? O governo que mandatou ou regulamentou seu uso?

Se regulação exige que empresas implementem IA para cumprir obrigações legais, mas não especifica procedimentos técnicos, e o sistema produz resultados discriminatórios, isso configura conformidade normativa ou violação de direitos fundamentais?

Quando jurisdição determina que algoritmos sejam modificados para refletir valores locais, mas o modelo foi treinado em dados globais conflitantes com esses valores, é tecnicamente viável cumprir a exigência sem comprometer funcionamento sistêmico?

Essas perguntas não são exercícios acadêmicos. São dilemas operacionais que empresas multinacionais, governos e sistemas judiciais enfrentam cotidianamente, sem que exista arcabouço institucional adequado para arbitrá-los.

O Problema Estrutural da Arquitetura

Sistemas técnicos complexos compartilham característica perigosa: funcionam eficientemente até que falhem. E quando falham, frequentemente o custo de correção já se tornou proibitivo.

A história da tecnologia documenta fartamente infraestruturas que se tornaram insubstituíveis antes que alguém questionasse se deveriam ter sido construídas daquela forma. Protocolos aparentemente neutros codificaram assimetrias permanentes. Padrões que prometiam eficiência criaram dependências irreversíveis. Arquiteturas pensadas como provisórias consolidaram-se como definitivas.

Governança algorítmica enfrenta risco idêntico. Enquanto acadêmicos e policy makers debatem se é desejável delegar certas decisões para automação, a delegação já ocorreu em escala. A questão relevante deixou de ser "devemos fazer isso?" e passou a ser "como garantir que sistemas já implementados preservem possibilidade de contestação, correção e eventual reversão?"

Instituições democráticas foram historicamente desenhadas sob princípio de que poder concentrado requer controles distribuídos. Legislativos, judiciários e executivos deveriam fiscalizar-se mutuamente. Eleições deveriam viabilizar correção de rumo. Tribunais deveriam oferecer revisão independente de decisões administrativas.

Infraestrutura algorítmica resiste a esses mecanismos. Não há como "votar" contra um algoritmo. Não há como "apelar" de decisão automatizada para instância verdadeiramente independente quando o sistema opera em caixa-preta proprietária. Não há como "auditar" processos decisórios opacos por design.

O risco fundamental não reside em máquinas tornarem-se malévolas. Está na própria arquitetura do poder tornar-se estruturalmente irreversível.

Escolhas Arquitetônicas Ainda Disponíveis

A migração de camadas decisórias específicas para infraestrutura técnica não resulta de conspiração nem de acidente. É consequência de incentivos econômicos (escala gera eficiência e lucro), preferências políticas (delegar é operacionalmente mais simples que decidir publicamente) e necessidades práticas genuínas (volume contemporâneo de decisões supera capacidade de instituições tradicionais).

Mas trajetória previsível não equivale a destino inevitável. Ainda existem escolhas arquitetônicas factíveis. É possível exigir auditabilidade de sistemas que tomam decisões com consequências públicas. É possível criar instâncias de revisão estruturalmente independentes. É possível estabelecer que determinados tipos de decisão simplesmente não podem ser delegados a automação, independentemente de ganhos de eficiência. É possível construir infraestrutura onde poder permanece rastreável, contestável e reversível.

O que não é factível é fingir que essa migração não está em curso. Cada vez que camada decisória migra de parlamento para linha de código, de juiz humano para modelo probabilístico, de escolha pública deliberada para default técnico automático, a arquitetura do poder se reconfigura incrementalmente.

A pergunta deixou de ser se queremos governança mediada algoritmicamente. Essa mediação já opera em escala global. A questão é se seremos capazes de mantê-la sob supervisão democrática efetiva ou se assistiremos à consolidação de sistema onde autoridade opera através de camadas técnicas inacessíveis a contestação política estruturada.

Os trilhos institucionais estão sendo instalados neste momento. A direção que apontam determinará se a próxima geração de arranjos políticos será mais permeável a controle democrático ou menos que a atual. A janela para influenciar essa direção permanece aberta, mas seu fechamento avança rapidamente.


Faustino Júnior | Nerd de Negócio

Faustino Júnior | Nerd de Negócio

A presente coluna é presidida por Faustino Júnior (@faustinojunior.adv.br) advogado tributarista, empreendedor digital, investidor imobiliário, escritor best-seller e criador do Método Nerd. São abordados temas atuais relacionados ao mundo dos negócios, da tecnologia, do direito, da medicina, de investimentos, de inovação, de entretenimento, de cultura pop, de economia, de política e de personalidades, sempre sob um olhar nerdístico.

Siga nosso Canal no YouTube: @nerddenegocio