
Para compreender a direção tomada pelo legislador brasileiro quanto à recomendação e moderação de conteúdos, é preciso primeiro entender o contexto que fundamenta essa regulação. A Constituição Brasileira consagra a dignidade humana e a autonomia individual como fundamentos essenciais do Estado Democrático de Direito, que orientam a ordem jurídica e informam a interpretação e aplicação das normas (Art. 1º, III, Art. 4º, II, CF). A proteção à privacidade e aos dados pessoais, prevista no artigo 5º, inciso X e LXXIX, são uma decorrência direta desses valores centrais, funcionando como instrumentos constitucionais para assegurar a dignidade humana e a autonomia dos indivíduos.
Essas normas traduzem os valores da sociedade em diretrizes de comportamento, de forma que a justificativa para essa regulação, portanto, parte de um entendimento filosófico-social de que, na sociedade contemporânea, a recomendação e a moderação de conteúdos digitais impactam diretamente a autonomia, a formação da subjetividade e a própria dignidade dos indivíduos. A regulação do tema visa a proteção da privacidade e dos dados pessoais, com a intenção de evitar a manipulação comportamental e a potencial erosão da capacidade crítica dos cidadãos, promovidas pelas dinâmicas algorítmicas das plataformas digitais. Nesse sentido, pensadores como Miguel Reale, Sérgio A. Gomes e Julie Cohen destacam ser fundamental preservar espaços de autodeterminação e resistência à massificação.
A regulação da recomendação e moderação de conteúdos digitais objetivam salvaguardar as condições necessárias para o pleno florescimento das potencialidades criativas e reflexivas de cada pessoa, assegurando a proteção da dignidade e da autonomia individual, conforme Gomes e Novais e, consequentemente, fortalecendo os fundamentos do Estado Democrático de Direito.
Logo, os serviços da sociedade da informação, que se escoram na invasão da privacidade e uso de dados pessoais para seu funcionamento, preocupam-se por seus impactos nos direitos fundamentais e no Estado de Direito. Problemas como a difusão de conteúdos ilegais, desinformação, e riscos à democracia, incluindo manipulações eleitorais e polarização, por exemplo, motivaram a criação do Digital Services Act (DSA) pela União Europeia (UE).
O DSA visa regular plataformas on-line e intermediários digitais, como redes sociais, marketplaces e serviços de hospedagem, com foco na prevenção de atividades ilegais, proteção de direitos fundamentais e promoção de um ambiente digital seguro e transparente. A norma busca equilibrar inovação com segurança, respeitando tanto os direitos dos usuários quanto o desenvolvimento econômico dos intermediários, atores essenciais da chamada quarta revolução industrial.
Aplica-se a prestadores de serviços que atuem ou tenham usuários na UE. Engloba plataformas de grande porte (VLOPs), marketplaces, serviços de alojamento virtual e intermediários de rede. Define três tipos principais de serviços intermediários: i) simples transporte de dados, ii) armazenagem temporária para otimização de transmissão e iii) alojamento virtual de conteúdo.
Uma inovação regulatória do DSA foi adotar uma abordagem baseada em riscos sistêmicos, impondo obrigações proporcionais ao tamanho e impacto das plataformas. São quatro os riscos elencados: i) difusão de conteúdo ilegal, ii) impactos sobre direitos fundamentais, iii) riscos à democracia e eleições, e iv) manipulações ligadas à saúde pública e proteção de menores.
Para mitigar esses riscos, o DSA destaca os sistemas de recomendação e a moderação de conteúdo. Os sistemas de recomendação, automatizados, organizam e priorizam informações aos usuários, influenciando escolhas. A moderação de conteúdo abrange medidas tomadas pelas plataformas para lidar com conteúdos ilegais ou que violem seus termos, incluindo remoção, restrição de visibilidade e desativação de contas.
Ademais, o DSA exige que os termos e condições das plataformas respeitem expressamente os direitos fundamentais, como a liberdade de expressão, conforme a Carta de Direitos Fundamentais da UE. Isso reflete, pois, um esforço de governança multinível à teor da teoria do Constitucionalismo Digital, defendendo o enforcement dos direitos fundamentais no ciberespaço.
No Brasil, a regulação do ambiente digital ainda está em curso. O PL 2630/2020 (PL das Fake News) encontra-se paralisado desde 2023. Fatores como pressões de big techs, disputas políticas e debates sobre liberdade de expressão contribuíram para o impasse.
Ambos (PL 2630 e DSA) buscam implementar um modelo de autorregulação regulada da internet, promovendo segurança, transparência e respeito aos direitos fundamentais. Reconhecem riscos sistêmicos, como desinformação e discurso de ódio e impõem deveres de transparência, moderação responsável e prestação de contas às plataformas.
O PL 2630 propõe, por exemplo, que as plataformas expliquem de forma clara os critérios de moderação e notifiquem os usuários sobre decisões de remoção, garantindo o contraditório e o devido processo legal, inclusive com direito a recurso via canais internos. Além disso, obriga a publicação de relatórios periódicos sobre conteúdos moderados, promovendo maior transparência nas práticas adotadas pelas empresas.
Portanto, o DSA e o PL 2630/2020 buscam traduzir no meio digital os valores constitucionais brasileiros: dignidade e observância de direitos fundamentais. O DSA apresenta arcabouço amplo, sistêmico e escalonado, combinando transparência, due process e risk-based approach para proteger o espaço público digital e a formação autônoma do indivíduo. Já o PL das “Fake News”, embora inspirado nesses pilares, adota resposta mais focalizada na crise de desinformação, com deveres de rastreabilidade, protocolos de moderação e transparência de algoritmos, voltados à integridade do debate público.
Todavia, por pressões sociais e políticas, ao que tudo indica, o PL 2630 de 2020 deverá ser superado pelo PL n.º 4691, embora compartilhem objetivos semelhantes, como a existência de riscos sistêmicos, a responsabilização das plataformas digitais e a proteção de usuários, eles apresentam diferenças significativas, como uma abordagem regulatória que dê maior ênfase à liberdade de expressão e ao exercício da atividade econômica.
Especificamente sobre a moderação de conteúdo, o PL 4691 é bem mais tímido e impõe uma obrigação geral de agir ex post às plataformas, após notificadas sobre conteúdos ilícitos, não exigindo ações preventivas, ao contrário do que preconizava o PL 2630 de 2020. A moderação de conteúdo, é objeto também de escrutínio no Capítulo III relativo à transparência, onde deverão informar os critérios e métodos utilizados para moderação em seus termos de uso e serviços (inc. VIII do Art. 11), bem como deixar claro ao usuário se utilizam de sistemas automatizados para moderar (inc. II do Art. 12).
O PL 4691, no Cap. V, autoriza as plataformas digitais associarem-se e instituir entidade de autorregulação, que poderá revisar decisões de moderação on-line, analisar e adequar e emitir recomendações sobres políticas internas de moderação e tomar decisões sobre a moderação realizada, ficando sobre a regulação da ANPD notadamente em casos de moderação. Vê-se, portanto, que falta à legislação brasileira aprimorar garantias processuais, reforçar fiscalização e escalonar obrigações por risco.Conclui-se que o futuro da recomendação e moderação de conteúdo digital no Brasil se encontra influenciado por legislações estrangeiras e lobbying, o que não deve impedir a promoção de um ambiente digital que concretize plenamente os valores do Estado Democrático de Direito, mas a carga regulatória irá depender fortemente do grupo de poder político da situação, ora mais pendente à proteção do usuário, ora mais protetivo dos interesses das empresas.



