Menu

O algoritmo não é neutro: quem decide o que você pode ver, ouvir e pensar na internet?

AI Brain

No texto anterior, perguntamos liberdade de expressão para quem? A resposta começou a aparecer quando vimos que falar, hoje, pode virar crime — ou, no mínimo, punição silenciosa. Agora é hora de avançar um passo além e encarar a engrenagem que opera esse silenciamento sem precisar de censores visíveis, carimbos oficiais ou decretos autoritários.

O nome dessa engrenagem é algoritmo.

Existe um mito confortável — e perigosamente disseminado — de que o algoritmo é apenas uma ferramenta técnica, matemática, imparcial. Uma espécie de juiz neutro que apenas “organiza conteúdos”. Mas isso não passa de narrativa. Algoritmos não são naturais, não brotam do chão nem caem do céu digital. Eles são projetados, treinados e ajustados por pessoas, empresas e interesses muito concretos.

A pergunta, então, não é se o algoritmo interfere. Ele interfere. A pergunta real é: a serviço de quem?

Plataformas como Meta (controladora do Instagram e Facebook), Google (YouTube, buscador) e TikTok não são espaços públicos neutros. São empresas privadas, com modelo de negócio baseado em atenção, dados e engajamento. O algoritmo não existe para garantir pluralidade democrática; ele existe para maximizar lucro, tempo de tela e previsibilidade de comportamento.

Isso não é opinião. É documentado.

Em 2021, os chamados Facebook Papers, revelados pela ex-funcionária Frances Haugen, mostraram que a própria empresa sabia que seus algoritmos amplificavam discursos extremistas, desinformação e ódio — porque isso gerava mais engajamento. Os documentos foram entregues ao Congresso dos EUA e analisados por veículos como The Wall Street Journal e The Guardian. O material é público, acessível e devastador.

Ou seja: quando uma plataforma diz que “o algoritmo decidiu”, o que ela está dizendo, na prática, é que decidiu manter um sistema que prioriza o que rende mais, mesmo que isso cause danos sociais profundos.

Agora, observe o outro lado da equação: conteúdos críticos, educativos, antirracistas, anticapitalistas ou que questionam estruturas de poder não costumam gerar o mesmo tipo de engajamento tóxico e compulsivo. Eles exigem pausa, reflexão, leitura. E pausa não dá lucro.

É nesse ponto que o silenciamento acontece — não como proibição direta, mas como inviabilização. O conteúdo não é banido oficialmente, mas perde alcance. Some do feed. Deixa de ser recomendado. Morre por asfixia algorítmica.

Pesquisas do Center for Countering Digital Hate mostram que conteúdos de ódio são impulsionados de forma desproporcional, enquanto denúncias e contrapontos recebem menos distribuição. Estudos da Universidade de Nova York, conduzidos pelo NYU Ad Observatory, também indicam que a lógica algorítmica favorece conteúdos polarizadores e emocionalmente extremos.

Nada disso é acidental.

O algoritmo aprende com o comportamento médio, mas é treinado para reforçar padrões, não para questioná-los. Se o mundo já é desigual, racista e violento, o algoritmo tende a reproduzir e amplificar isso. Ele não corrige injustiças; ele as automatiza.

Por isso, quando vozes vindas da periferia, do pensamento crítico, do antirracismo ou da dissidência política começam a crescer demais, algo acontece. O sistema reage. Não com alarde, mas com ajustes invisíveis. A queda de alcance vira regra, e a explicação nunca vem.

Dizer que isso é “apenas tecnologia” é ingenuidade — ou má-fé. Estamos falando de poder simbólico. Quem controla o que circula controla o que é considerado relevante, aceitável e verdadeiro. O algoritmo, hoje, cumpre um papel que antes era da grande mídia tradicional: filtrar o mundo.

A diferença é que agora esse filtro é opaco. Não há editor-chefe visível. Não há linha editorial declarada. Há termos de uso vagos, decisões automatizadas e uma retórica de neutralidade que não se sustenta.

O filósofo Michel Foucault já alertava que o poder moderno não age apenas pela repressão, mas pela gestão dos discursos possíveis. O algoritmo é a versão digital mais sofisticada disso. Ele não precisa calar todo mundo — basta decidir quem será ouvido.

E isso nos leva a uma constatação incômoda: a democracia digital é profundamente desigual. Quem já tem capital simbólico, econômico ou político fala mais alto. Quem fala a partir das margens precisa lutar contra um sistema inteiro programado para ignorá-lo.

Quando alguém diz “seu conteúdo não violou nenhuma regra, mas mesmo assim foi derrubado”, estamos diante do novo autoritarismo: aquele que não se assume como tal. Um poder que não pune oficialmente, mas que limita, sufoca e invisibiliza.

Por isso, insistir que o algoritmo é neutro é aceitar uma mentira confortável. Ele é uma ferramenta política, mesmo quando se veste de matemática. E enquanto não encararmos isso com seriedade, continuaremos discutindo liberdade de expressão sem tocar no verdadeiro centro do problema.

A pergunta que fica não é apenas quem decide o que você pode ver, mas:

👉 quem você deixa decidir isso por você?

Wanderson Dutch
Wanderson Dutch

Wanderson Dutch é escritor, dancarino, produtor de conteúdo digital desde 2015, formado em Letras pela Faculdade Capixaba do Espírito Santo (Multivix 2011-2014) e pós-graduado pela Faculdade União Cultural do estado de São Paulo (2015-2016). Vasta experiência internacional, já morou em Dublin(Irlanda), Portugal, é um espírito livre, já visitou mais de 15 países da Europa e atualmente mora em São Paulo. É coautor no livro: Versões do Perdão, autor do livro O Diário de Ayron e também de Breves Reflexões para não Desistir da Vida.

Leia Também

Como a inteligência emocional pode transformar suas relações pessoais

Como a inteligência emocional pode transformar suas relações pessoais

Se tem um tipo de assunto de extrema importância que eu gostaria muito de ter aprendido na escola ou até...

“Lula vai escolher um homem branco para o cargo no STF”-Miriam Leitão

“Lula vai escolher um homem branco para o cargo no STF”-Miriam Leitão

Leitão qualificou de aberração o fato de que, entre os ministros do Supremo Tribunal Federal, há apenas uma mulher (e...