O Plenário do Supremo Tribunal Federal formou maioria nesta quarta-feira (11/6) para declarar a inconstitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014) e estabelecer que plataformas digitais podem ser responsabilizadas por conteúdos de usuários.
Até o momento, o placar está 6 a 1 pela inconstitucionalidade do dispositivo. Os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin e Gilmar Mendes votaram pela responsabilização das big techs que não removerem publicações ofensivas. O ministro André Mendonça foi o único que votou pela validade do artigo 19. O julgamento será retomado na sessão desta quinta (12/6).
O artigo 19 do Marco Civil da Internet condiciona a responsabilidade civil das plataformas por danos a terceiros à necessidade de ordem judicial prévia. A prevalecer a maioria já formada, as plataformas terão de fiscalizar os conteúdos publicados e retirá-los do ar, mesmo sem intervenção do Judiciário.
Também são discutidas a possibilidade de responsabilização de plataformas e provedores por conteúdos gerados por usuários; a possibilidade de remoção de conteúdo criminoso a partir de notificação extrajudicial; e a possibilidade de bloqueio de aplicativos.
Votos dos ministros
O ministro Dias Toffoli, relator de uma das duas ações que discutem a matéria, propôs um rol taxativo de conteúdos que levarão à responsabilidade civil objetiva das plataformas caso o material não seja excluído por elas mesmas, independentemente de notificação extrajudicial ou decisão judicial determinando a exclusão.
Já na visão do ministro Luiz Fux, relator da outra ação, a partir do momento em que são notificadas sobre conteúdos ilícitos, as plataformas digitais devem excluir as publicações, independentemente de ordem judicial. Além disso, as empresas devem monitorar postagens claramente ilegais, que contenham discurso de ódio, racismo, pedofilia, incitação à violência ou apologia a golpe de Estado. Os dois relatores votaram pela inconstitucionalidade do artigo 19.
Barroso, Dino, Zanin e Gilmar manifestaram-se pela inconstitucionalidade parcial do dispositivo. Para eles, as companhias só devem excluir as publicações após ordem judicial, mas isso desde que melhorem seus sistemas de monitoramento das redes.
Os seis ministros também entendem que é obrigação das plataformas impedir, por si sós, a circulação de publicações criminosas. Houve divergências quanto aos delitos que seriam abrangidos por esse dever.
Modelos diferentes
Barroso entendeu que não pode haver responsabilidade objetiva das redes por conteúdos de terceiros, mas propôs dois modelos de responsabilização. O primeiro trata de conteúdos específicos, e a notificação extrajudicial é a regra para crimes em geral. Nesses casos, a plataforma pode ser responsabilizada por não retirar conteúdos após ser notificada. Ele colocou como exceções, no entanto, os crimes contra a honra, em que a sistemática adotada deve continuar sendo a do artigo 19, em que só pode haver responsabilização se houver descumprimento de ordem judicial pelas plataformas.
Já o segundo modelo de responsabilização leva em conta o chamado “dever de cuidado”, em contraposição à responsabilidade objetiva proposta por Toffoli. No dever de cuidado, as plataformas ficam obrigadas a empenhar todos os esforços para prevenir e mitigar riscos sistêmicos criados ou potencializados nas redes sociais.
Dessa forma, prosseguiu Barroso, as plataformas devem atuar proativamente, de ofício, para que seus ambientes estejam livres de conteúdos “gravemente nocivos”, em especial no que se refere a pornografia infantil; crimes graves contra crianças ou adolescentes; induzimento, instigação ou auxílio ao suicídio ou à automutilação; tráfico de pessoas; atos de terrorismo; e abolição violenta do Estado democrático de Direito e golpe de Estado.
Flávio Dino defendeu a adoção de um modelo segmentado para a responsabilização de plataformas digitais na remoção de conteúdos ilícitos. Segundo o ministro, conteúdos evidentemente ilegais poderiam ser retirados mediante notificação extrajudicial. Já nos casos de crimes contra a honra, a remoção dependeria de ordem judicial.
O magistrado também sustentou a responsabilização direta das plataformas por atos próprios, como o impulsionamento pago e a manutenção de perfis inautênticos.
Dino sugeriu ainda a implementação de deveres procedimentais mínimos, a promoção de educação digital e a exigência de relatórios de transparência por parte das plataformas, sem a necessidade de criação de um novo órgão regulador.
Na sessão desta quarta, Cristiano Zanin e Gilmar Mendes também votaram pela responsabilidade das plataformas digitais.
Zanin reconheceu a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet por considerar que a exigência de ordem judicial para a remoção de conteúdos oferece proteção insuficiente diante da rápida disseminação de material ilícito.
O ministro propôs um regime diferenciado, com base na natureza do conteúdo: remoção por notificação extrajudicial nos casos manifestamente ilícitos, ordem judicial para casos complexos, além da adoção de deveres de cuidado, regras procedimentais e modulação dos efeitos da decisão do Supremo.
Gilmar também apontou a superação do modelo atual, classificando o artigo 19 como ultrapassado por ignorar a atuação ativa das plataformas na curadoria de conteúdo. O decano do Supremo sugeriu a criação de quatro regimes distintos de responsabilidade, conforme o grau de interferência das plataformas nos conteúdos.
Entre os pontos de sua proposta estão a presunção de responsabilidade em publicações patrocinadas e a responsabilização direta das plataformas em casos mais graves. Gilmar defendeu ainda a imposição de obrigações procedimentais e a atribuição da fiscalização à Autoridade Nacional de Proteção de Dados (ANPD).
Voto divergente
André Mendonça divergiu dos relatores e votou pela constitucionalidade do artigo 19 do Marco Civil da Internet. O magistrado entendeu que “é inconstitucional a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos”.
Além disso, segundo ele, uma decisão para exclusão de uma postagem nas redes sociais precisa seguir procedimentos detalhados e uma “fundamentação específica”.
“As plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro”, disse Mendonça.
Casos concretos
O tribunal analisa conjuntamente duas ações. No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
Foto: Valter Campanato/Agência Brasil
FONTE: https://www.conjur.com.br/2025-jun-11/stf-forma-maioria-por-responsabilizacao-de-big-techs-por-publicacoes-de-usuarios/