O Supremo Tribunal Federal (STF) aprovou nesta quinta-feira (26), por 8 votos a 3, uma tese que obriga as plataformas digitais a removerem imediatamente conteúdos classificados como “condutas antidemocráticas”, mesmo sem ordem judicial.
A decisão estabelece que redes sociais que mantiverem no ar esse tipo de material poderão ser responsabilizadas civilmente caso não adotem mecanismos prévios de prevenção ou retirada do conteúdo, com multas e outros tipos de sanções previstas.
As condutas antidemocráticas abrangidas pela tese do STF são as tipificadas nos artigos 296 (uso indevido de símbolos nacionais) e 359-L a 359-R do Código Penal, que incluem crimes como abolição violenta do Estado Democrático de Direito, impedimento do exercício dos Poderes e golpe de Estado.
Além das chamadas "condutas antidemocráticas", a tese obriga a remoção imediata de conteúdos que promovam "incitação à discriminação" por raça, religião, sexualidade ou identidade de gênero. A lista inclui ainda crimes de terrorismo ou preparatórios de terrorismo, induzimento ao suicídio, pornografia infantil, tráfico de pessoas e violência contra a mulher.
A tese aprovada decorre do julgamento sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, que restringia a responsabilidade das plataformas a casos em que tivessem recebido ordem judicial. Com a nova interpretação, o STF declarou a inconstitucionalidade parcial do dispositivo, com o argumento de que ele deixava bens jurídicos constitucionais – como a proteção da democracia – insuficientemente resguardados.
A aprovação da tese se deu por 8 votos a 3, com votos divergentes dos ministros Nunes Marques – que votou nesta quinta pela constitucionalidade do artigo 19 –, André Mendonça e Edson Fachin. A leitura da tese foi feita pelo ministro Dias Toffoli, relator do caso. Durante a sessão em que anunciou o resultado do julgamento, o presidente do STF, Luís Roberto Barroso, contou que, antes de entrarem no Plenário, os ministros deliberaram a tese de forma privada, no gabinete da Presidência da Corte, durante cerca de quatro horas.
A decisão do STF permite responsabilizar as plataformas em casos de publicação dos tipos de conteúdos mencionados mesmo sem decisão judicial, especialmente quando houver redes artificiais de distribuição (robôs ou impulsionamento pago).
As punições para as plataformas que descumprirem as obrigações incluem a responsabilização civil por danos, o pagamento de indenizações e a aplicação de multas e outras sanções financeiras, que deverão ser cumpridas pelo representante legal da empresa no Brasil.
A tese também prevê que o provedor poderá ser responsabilizado por "falha sistêmica", conceito que abrange a omissão em adotar medidas eficazes de prevenção ou retirada de conteúdo ilícito.
Já se uma pessoa tiver seu conteúdo removido por uma plataforma e, depois, a Justiça entender que a remoção foi indevida, o provedor não será obrigado a pagar indenização. Mesmo que o conteúdo seja restaurado por ordem judicial, a rede social não será punida financeiramente, desde que tenha agido com base nas regras previstas. A única consequência, nesse caso, será a obrigação de colocar o conteúdo de volta no ar.
A decisão do STF já está valendo, mas só para casos futuros. Ela não afeta processos antigos nem decisões já tomadas pela Justiça.
Não haverá um órgão regulador, como alguns ministros haviam cogitado anteriormente. As plataformas deverão, segundo as regras do STF, "adotar autorregulação, com regras de notificações, garantia de devido processo e publicação de relatórios anuais de transparência".
Pela tese do STF, o provedor será responsabilizado se não remover imediatamente conteúdos que configurem os seguintes crimes graves:
- condutas e atos antidemocráticos (arts. 296, 359-L a 359-R do CP);
- terrorismo e atos preparatórios (Lei 13.260/2016);
- induzimento ou auxílio a suicídio e automutilação (art. 122 do CP);
- incitação à discriminação (raça, religião, sexualidade, etc.);
- crimes contra a mulher (ódio à mulher, violência de gênero);
- crimes sexuais contra vulneráveis, pornografia infantil, crimes contra crianças e adolescentes;
- tráfico de pessoas (art. 149-A do CP).
Tipos penais relacionados a "condutas antidemocráticas" são os mais usados pelo STF para punir a direita
A categoria de "condutas antidemocráticas" foi frequentemente manipulada nos últimos anos pelo Judiciário para justificar a censura da direita nas redes. Desde 2019, os inquéritos abusivos do Supremo têm enquadrado como ameaça à democracia desde postagens questionando a segurança das urnas eletrônicas até críticas aos próprios ministros.
"Sem dúvida alguma, a previsão de censura aos conteúdos antidemocráticos, ou de ameaça ao Estado Democrático de Direito, é perigosa por conta do que a gente tem visto nesses inquéritos e processos sobre golpe: qualquer coisa pode ser considerada ameaça ao Estado", afirmou o jurista André Marsiglia, especialista em liberdade de expressão, em entrevista recente à Gazeta do Povo.
Ao exigir que as plataformas removam esse tipo de conteúdo sob pena de responsabilização, mesmo sem ordem judicial, a Corte transforma em dever das redes a censura preventiva do discurso político baseada em suas interpretações amplas e elásticas do que é antidemocrático.
"É muito aberta a ideia de postagem que 'atenta contra o Estado Democrático'. Por exemplo, uma postagem lá por 2015 pedindo o impeachment da presidente Dilma Rousseff, ou um artigo de jornal corroborando o impeachment do presidente Fernando Collor, que foram dois presidentes eleitos democraticamente: essas publicações atentam contra o Estado democrático, na medida em que pedem que seja retirado um presidente que foi eleito democraticamente? Isso é muito subjetivo", criticaou Venceslau Tavares Costa Filho, professor de Direito Civil da Universidade de Pernambuco, em entrevista recente.
Com a decisão do STF, a inteligência artificial (IA) deverá ter papel importante na censura aos discursos considerados "antidemocráticos". Para Venceslau Tavares, "vai haver uma tendência à autocensura". "As redes deverão criar critérios internos para a remoção das postagens e até treinar de alguma forma o algoritmo para reconhecer o tipo de postagem que não deve ser admitida", afirmou.
Nos casos em que os critérios são subjetivos, a tendência é que as plataformas removam alguns conteúdos mesmo quando não configurarem crime claro, apenas para evitar riscos jurídicos.
"As plataformas vão ter que preventivamente remover qualquer conteúdo que seja potencialmente questionável para evitar uma responsabilização ou um passivo financeiro", lamentou Fábio Coelho, presidente do Google no Brasil, em entrevista ao UOL no começo de junho.
Brasil se torna caso único de regulação das redes feita pelo Judiciário
Com a decisão desta quinta do STF, o Brasil se torna um caso único no mundo, sendo o primeiro país em que o Judiciário tomou as rédeas do tema e aprovou por si próprio as regras para o controle do discurso nas redes sociais.
Nem mesmo em regimes autoritários que já aprovaram leis contra o chamado "discurso de ódio" nas redes, como a Venezuela, essa dinâmica se verificou. Por lá, apesar de o Executivo exercer controle absoluto sobre o Legislativo, houve a cautela de preservar a aparência de respeito às atribuições formais dos poderes, com a aprovação da lei sendo conduzida pelo Congresso.