O futuro da recomendação e moderação de conteúdo digital no Brasil: uma comparação entre o DSA e as regulações brasileiras

6 min. de leitura
O DSA visa regular plataformas on-line e intermediários digitais, como redes sociais, marketplaces e serviços de hospedagem, com foco na prevenção de atividades ilegais, e proteção de direitos fundamentais

Para compreender a direção tomada pelo legislador brasileiro quanto à recomendação e moderação de conteúdos, é preciso primeiro entender o contexto que fundamenta essa regulação. A Constituição Brasileira consagra a dignidade humana e a autonomia individual como fundamentos essenciais do Estado Democrático de Direito, que orientam a ordem jurídica e informam a interpretação e aplicação das normas (Art. 1º, III, Art. 4º, II, CF). A proteção à privacidade e aos dados pessoais, prevista no artigo 5º, inciso X e LXXIX, são uma decorrência direta desses valores centrais, funcionando como instrumentos constitucionais para assegurar a dignidade humana e a autonomia dos indivíduos.

Essas normas traduzem os valores da sociedade em diretrizes de comportamento, de forma que a justificativa para essa regulação, portanto, parte de um entendimento filosófico-social de que, na sociedade contemporânea, a recomendação e a moderação de conteúdos digitais impactam diretamente a autonomia, a formação da subjetividade e a própria dignidade dos indivíduos. A regulação do tema visa a proteção da privacidade e dos dados pessoais, com a intenção de evitar a manipulação comportamental e a potencial erosão da capacidade crítica dos cidadãos, promovidas pelas dinâmicas algorítmicas das plataformas digitais. Nesse sentido, pensadores como Miguel Reale, Sérgio A. Gomes e Julie Cohen destacam ser fundamental preservar espaços de autodeterminação e resistência à massificação. 

A regulação da recomendação e moderação de conteúdos digitais objetivam salvaguardar as condições necessárias para o pleno florescimento das potencialidades criativas e reflexivas de cada pessoa, assegurando a proteção da dignidade e da autonomia individual, conforme Gomes e Novais e, consequentemente, fortalecendo os fundamentos do Estado Democrático de Direito. 

Logo, os serviços da sociedade da informação, que se escoram na invasão da privacidade e uso de dados pessoais para seu funcionamento, preocupam-se por seus impactos nos direitos fundamentais e no Estado de Direito. Problemas como a difusão de conteúdos ilegais, desinformação, e riscos à democracia, incluindo manipulações eleitorais e polarização, por exemplo, motivaram a criação do Digital Services Act (DSA) pela União Europeia (UE).

O DSA visa regular plataformas on-line e intermediários digitais, como redes sociais, marketplaces e serviços de hospedagem, com foco na prevenção de atividades ilegais, proteção de direitos fundamentais e promoção de um ambiente digital seguro e transparente. A norma busca equilibrar inovação com segurança, respeitando tanto os direitos dos usuários quanto o desenvolvimento econômico dos intermediários, atores essenciais da chamada quarta revolução industrial.

Aplica-se a prestadores de serviços que atuem ou tenham usuários na UE. Engloba plataformas de grande porte (VLOPs), marketplaces, serviços de alojamento virtual e intermediários de rede. Define três tipos principais de serviços intermediários: i) simples transporte de dados, ii) armazenagem temporária para otimização de transmissão e iii) alojamento virtual de conteúdo.

Uma inovação regulatória do DSA foi adotar uma abordagem baseada em riscos sistêmicos, impondo obrigações proporcionais ao tamanho e impacto das plataformas. São quatro os riscos elencados: i) difusão de conteúdo ilegal, ii) impactos sobre direitos fundamentais, iii) riscos à democracia e eleições, e iv) manipulações ligadas à saúde pública e proteção de menores.

Para mitigar esses riscos, o DSA destaca os sistemas de recomendação e a moderação de conteúdo. Os sistemas de recomendação, automatizados, organizam e priorizam informações aos usuários, influenciando escolhas. A moderação de conteúdo abrange medidas tomadas pelas plataformas para lidar com conteúdos ilegais ou que violem seus termos, incluindo remoção, restrição de visibilidade e desativação de contas.

Ademais, o DSA exige que os termos e condições das plataformas respeitem expressamente os direitos fundamentais, como a liberdade de expressão, conforme a Carta de Direitos Fundamentais da UE. Isso reflete, pois, um esforço de governança multinível à teor da teoria do Constitucionalismo Digital, defendendo o enforcement dos direitos fundamentais no ciberespaço. 

No Brasil, a regulação do ambiente digital ainda está em curso. O PL 2630/2020 (PL das Fake News) encontra-se paralisado desde 2023. Fatores como pressões de big techs, disputas políticas e debates sobre liberdade de expressão contribuíram para o impasse.

Ambos (PL 2630 e DSA) buscam implementar um modelo de autorregulação regulada da internet, promovendo segurança, transparência e respeito aos direitos fundamentais. Reconhecem riscos sistêmicos, como desinformação e discurso de ódio e impõem deveres de transparência, moderação responsável e prestação de contas às plataformas.

O PL 2630 propõe, por exemplo, que as plataformas expliquem de forma clara os critérios de moderação e notifiquem os usuários sobre decisões de remoção, garantindo o contraditório e o devido processo legal, inclusive com direito a recurso via canais internos. Além disso, obriga a publicação de relatórios periódicos sobre conteúdos moderados, promovendo maior transparência nas práticas adotadas pelas empresas.

Portanto, o DSA e o PL 2630/2020 buscam traduzir no meio digital os valores constitucionais brasileiros: dignidade e observância de direitos fundamentais. O DSA apresenta arcabouço amplo, sistêmico e escalonado, combinando transparência, due process e risk-based approach para proteger o espaço público digital e a formação autônoma do indivíduo. Já o PL das “Fake News”, embora inspirado nesses pilares, adota resposta mais focalizada na crise de desinformação, com deveres de rastreabilidade, protocolos de moderação e transparência de algoritmos, voltados à integridade do debate público. 

Todavia, por pressões sociais e políticas, ao que tudo indica, o PL 2630 de 2020 deverá ser superado pelo PL n.º 4691, embora compartilhem objetivos semelhantes, como a existência de riscos sistêmicos, a responsabilização das plataformas digitais e a proteção de usuários, eles apresentam diferenças significativas, como uma abordagem regulatória que dê maior ênfase à liberdade de expressão e ao exercício da atividade econômica.

Especificamente sobre a moderação de conteúdo, o PL 4691 é bem mais tímido e impõe uma obrigação geral de agir ex post às plataformas, após notificadas sobre conteúdos ilícitos, não exigindo ações preventivas, ao contrário do que preconizava o PL 2630 de 2020. A moderação de conteúdo, é objeto também de escrutínio no Capítulo III relativo à transparência, onde deverão informar os critérios e métodos utilizados para moderação em seus termos de uso e serviços (inc. VIII do Art. 11), bem como deixar claro ao usuário se utilizam de sistemas automatizados para moderar (inc. II do Art. 12).

O PL 4691, no Cap. V, autoriza as plataformas digitais associarem-se e instituir entidade de autorregulação, que poderá revisar decisões de moderação on-line, analisar e adequar e emitir recomendações sobres políticas internas de moderação e tomar decisões sobre a moderação realizada, ficando sobre a regulação da ANPD notadamente em casos de moderação. Vê-se, portanto, que falta à legislação brasileira aprimorar garantias processuais, reforçar fiscalização e escalonar obrigações por risco.Conclui-se que o futuro da recomendação e moderação de conteúdo digital no Brasil se encontra influenciado por legislações estrangeiras e lobbying, o que não deve impedir a promoção de um ambiente digital que concretize plenamente os valores do Estado Democrático de Direito, mas a carga regulatória irá depender fortemente do grupo de poder político da situação, ora mais pendente à proteção do usuário, ora mais protetivo dos interesses das empresas.

Sobre os Autores

  • Pesquisador no Centro de Estudos em Governança da Internet do Legal Fronts Institute.  Mestrado em Direito e Ciência Jurídica (Direito Constitucional) na Faculdade de Direito da Universidade de Lisboa- FDUL (aguardando defesa da dissertação); Pesquisador Colaborador em Lisbon Public Law Research Centre (Portugal) no projeto Lisbon Digital Rights; ex-fellow researcher em Lisbon Public Law Research Centre (Portugal); Pós-graduado lato sensu em Direito Processual (UFJF) e Direito Médico e Saúde (CERS); MBA em Gestão da Saúde pelo Centro Universitário São Camilo/SP. Concentração da investigação em Constitucionalismo Digital, Proteção de Dados, Inteligência Artificial e Regulação da Internet. Apresentação de artigos jurídicos em congressos internacionais e publicações regulares sobre os temas de pesquisa. Advogado Brasil e Portugal.

  • Pesquisadora no Centro de Estudos em Governança da Internet do Legal Fronts Institute. Mestre em Relações Internacionais pela International University of Japan (IUJ). Advogada formada pela Universidade Estadual de Londrina (UEL). Estudos especializados na DSA (Digital Services Act - Europa) e em programação para Advogados, no curso "CS50 for Lawyers", da HarvardX. Advogada-Chefe do setor consultivo no escritório Merenciano Advogados.

Tradutor »