O Supremo Tribunal Federal (STF) retoma, nesta quarta-feira (18), o julgamento que pode redefinir a forma como redes sociais e provedores de internet lidam com conteúdos ilegais publicados por seus usuários. Até agora, os ministros Dias Toffoli e Luiz Fux votaram a favor da responsabilização direta das plataformas, sem necessidade de ordem judicial para a retirada de publicações consideradas ilícitas.
O caso gira em torno da constitucionalidade do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que atualmente isenta as plataformas de responsabilidade sobre conteúdos de terceiros, salvo em situações onde há descumprimento de decisão judicial para remoção.
Se prevalecer o entendimento dos dois primeiros votos, as redes sociais deverão remover conteúdos ilegais, como mensagens que incitem a violência, promovam o racismo ou ataquem a democracia, assim que notificadas pelas vítimas, sem necessidade de uma decisão judicial.
A mudança pode trazer implicações significativas para o combate à desinformação no país. Durante as sessões, representantes das plataformas argumentaram que tal medida poderia configurar censura prévia e criar um ambiente de insegurança jurídica.
O julgamento abrange dois processos. Um é o Caso Facebook no qual o relatado por Dias Toffoli, avalia se a exigência de ordem judicial prévia para remoção de conteúdos ofensivos é constitucional. A ação foi movida pela empresa contra decisão que a condenou por danos morais relacionados a um perfil falso de um usuário. O outro é o Caso Google que, sob relatoria de Luiz Fux, discute se plataformas que hospedam sites devem ser obrigadas a monitorar previamente conteúdos considerados ofensivos, retirando-os sem necessidade de intervenção judicial.
O presidente da Corte, ministro Luís Roberto Barroso, deve apresentar seu voto hoje, mas a conclusão do julgamento só deve ocorrer em 2025 devido ao recesso do Judiciário, que começa em 20 de dezembro. Ainda faltam os votos de nove ministros.
Enquanto os ministros Toffoli e Fux defendem maior responsabilidade das plataformas na moderação de conteúdos, com retirada baseada em notificação extrajudicial, representantes das empresas argumentam que já adotam medidas para remoção de conteúdos ilegais, mas alertam para o risco de censura e abuso caso sejam obrigadas a realizar monitoramentos prévios.