Nos últimos quinze anos, as plataformas digitais deixaram de ser vistas como meras intermediárias da comunicação para se tornarem estruturas centrais na mediação do debate público. A promessa inicial de ampliação democrática, que celebrava a liberdade de expressão e a descentralização da produção de conteúdo, foi gradualmente substituída por uma realidade marcada por linchamentos virtuais, campanhas de desinformação e ataques coordenados. Em vez de catalisarem uma esfera pública mais plural, essas plataformas passaram a operar como vetores de instabilidade, demandando novas formas de regulação e responsabilização.
Num primeiro momento, a pressão pública surtiu efeito: empresas como Meta, Twitter e Google implementaram políticas de moderação mais rigorosas, criaram equipes dedicadas à integridade informacional e assumiram compromissos com a integridade eleitoral. Mas esse ciclo deu lugar, mais recentemente, a um realinhamento no Vale do Silício. Mark Zuckerberg recuou em suas políticas de verificação de fatos e contenção de desinformação, enquanto Marc Andreessen, influente investidor, passou a defender abertamente a liberdade de expressão como valor absoluto, acima de qualquer preocupação com o impacto social do conteúdo. Elon Musk radicalizou esse reposicionamento: após comprar o Twitter, dissolveu equipes de moderação, restabeleceu contas banidas por discurso de ódio e transformou a plataforma — agora chamada X — em um símbolo do novo desmonte das políticas de contenção. Nesse contexto de retração regulatória, o discurso da neutralidade volta à cena, mas não como ideal democrático, e sim como escudo retórico para legitimar a inação diante do colapso da esfera pública.
Diante desse cenário, no Monitor do Debate Político decidimos voltar nossa atenção para os temas da moderação de conteúdo e da governança das plataformas. A crise da esfera pública digital não pode ser enfrentada apenas com diagnósticos sobre polarização ou desinformação; é preciso compreender e intervir nas infraestruturas que sustentam a circulação da informação. Nosso foco recente tem sido o estudo de modelos alternativos de organização das redes sociais, com especial interesse nas arquiteturas federadas, que distribuem o poder de decisão e possibilitam mecanismos mais transparentes e participativos de moderação. Diferente das plataformas centralizadas, as redes federadas permitem a construção de instâncias locais com regras próprias, auditáveis e negociáveis coletivamente. Essa estrutura torna possível uma moderação mais contextualizada e deliberativa, ao mesmo tempo em que abre espaço para formas plurais de convivência. Nesse contexto, Custodians of the Internet se apresenta como uma ferramenta teórica para compreender os limites do modelo vigente e pensar em novos arranjos que aliem liberdade de expressão e responsabilidade democrática.
Tarleton Gillespie é pesquisador sênior do Microsoft Research e professor afiliado no Departamento de Comunicação da Universidade Cornell. Especialista em mídia digital, Gillespie tem se dedicado a estudar como as tecnologias de informação moldam a vida pública, com foco na atuação das plataformas digitais como mediadoras do discurso social. Custodians of the Internet foi publicado em 2018, em um momento de crescente pressão sobre empresas como Facebook, Twitter e YouTube, que começavam a ser cobradas por seu papel na disseminação de desinformação, discurso de ódio e interferência política. O livro surge como resposta a um contexto em que a narrativa da neutralidade técnica começava a ruir: escândalos como o caso Cambridge Analytica, o #Gamergate e a censura a conteúdos artísticos e jornalísticos tornaram evidente que as decisões de moderação de conteúdo não eram exceções operacionais, mas parte estrutural da forma como as plataformas funcionam.
Custodians of the Internet mostra que a moderação de conteúdo não é um detalhe administrativo das redes sociais, mas uma de suas funções mais centrais. Gillespie parte da constatação de que todas as plataformas moderam — e precisam moderar — para manter um espaço funcional e viável. O discurso da neutralidade, tão comum no início da internet, não resiste à realidade de sistemas que organizam e regulam o que pode ou não circular, seja por obrigação legal, interesse comercial ou proteção reputacional. Essa moderação, ainda que muitas vezes invisível para os usuários, molda profundamente os contornos do debate público digital.
O livro desmonta o mito da imparcialidade técnica ao mostrar que as decisões de moderação são profundamente morais, culturais e políticas. Diretrizes comunitárias que se pretendem neutras e universais são formuladas a partir de contextos específicos e carregam ambiguidades deliberadas. Gillespie detalha os dilemas enfrentados pelas plataformas: proteger a liberdade de expressão ou responder à pressão de anunciantes e reguladores? Remover conteúdos sensíveis ou apenas escondê-los por meio de filtros? Cada escolha implica riscos e consequências, afetando quem é visível, quem é silenciado e quais narrativas ganham tração no espaço digital.
Para lidar com a escala gigantesca do conteúdo gerado diariamente, as plataformas recorrem a três estratégias principais: moderação comunitária, automação algorítmica e terceirização do trabalho para moderadores humanos, geralmente em condições precárias. Todas essas soluções têm limitações: as denúncias podem ser instrumentalizadas, os algoritmos falham ao lidar com contextos e ironias, e os trabalhadores humanos enfrentam sofrimento psíquico invisibilizado. Gillespie mostra que, mesmo com essa combinação frágil de mecanismos, as plataformas operam com um poder imenso sobre o que circula na esfera pública digital.
Ao longo da obra, Gillespie mostra que a moderação de conteúdo não é um recurso periférico ou um mecanismo de correção, mas uma dimensão constitutiva do modelo de negócios das plataformas. São as decisões sobre o que pode ou não circular que tornam possível a construção de ambientes que estimulem o engajamento, atraiam anunciantes e mantenham a reputação institucional das empresas. Moderar é estruturar o espaço digital, definir suas fronteiras, organizar o fluxo da atenção. Por isso, Gillespie propõe que deixemos de tratar as plataformas como intermediárias neutras e passemos a reconhecê-las como instituições com poder normativo, cuja atuação precisa ser regulada por princípios de transparência, participação e responsabilidade pública.