Entrevista para o portal LexLegal. Leia a íntegra
O Supremo Tribunal Federal (STF) iniciou esta semana um julgamento que pode transformar a forma como as redes sociais operam no Brasil. Em uma votação que promete impactar diretamente a liberdade de expressão e a proteção contra abusos digitais, o ministro Dias Toffoli votou a favor da responsabilização direta das plataformas pelos conteúdos ilegais publicados por usuários, sem necessidade de ordem judicial prévia.
Essa decisão questiona o Artigo 19 do Marco Civil da Internet, que atualmente protege as redes de penalizações desde que removam conteúdos ilegais após decisão judicial. Para Toffoli, essa regra é inconstitucional, e as plataformas precisam responder pelos danos causados pela manutenção de publicações prejudiciais ou pela omissão na remoção de conteúdos evidentemente ilegais.
O que está em jogo?
O julgamento coloca em xeque o equilíbrio entre liberdade de expressão, inovação digital e a necessidade de proteção contra conteúdos nocivos. O voto de Toffoli propõe que as redes sociais sejam obrigadas a remover postagens consideradas ilegais de forma imediata. Caso contrário, podem ser processadas por danos causados.
Segundo o ministro, conteúdos ilegais incluem:
Crimes contra o Estado Democrático de Direito;
Racismo e terrorismo;
Violência contra mulheres, crianças e adolescentes;
Incitação ao suicídio;
Infrações sanitárias;
Tráfico de pessoas;
Divulgação de informações inverídicas ou descontextualizadas capazes de causar danos, como durante eleições.
Esse entendimento altera o atual sistema de responsabilização, que, sob o Artigo 19, só ocorre se as plataformas descumprirem ordens judiciais.
O impacto do Marco Civil da Internet
O Marco Civil da Internet foi criado em 2014 para regular a atuação na web, buscando equilibrar liberdade de expressão e responsabilidade. O Artigo 19 foi pensado para evitar censura e assegurar o direito à livre manifestação de ideias. Porém, casos recentes, como a disseminação de desinformação nas eleições, episódios de violência política e perfis falsos promovendo discursos de ódio, reacenderam o debate sobre sua eficácia.
Toffoli argumentou que o modelo atual confere uma “imunidade” às plataformas, que deveriam ser mais ativas na fiscalização de conteúdos ilegais. “Não tem como não estabelecermos hipóteses de responsabilidade objetiva. O 8 de janeiro [atos golpistas] mostra isso; novembro passado [atentado do homem-bomba] mostra isso”, afirmou o ministro.
Além disso, ele propôs que o Artigo 21 do Marco Civil, que trata de danos à intimidade, honra e vida privada, seja aplicado de forma geral, ampliando as hipóteses de responsabilização direta das plataformas.
Plataformas de marketplace e regras específicas
Além das redes sociais, o voto do relator trouxe implicações para plataformas de marketplace, como aquelas que permitem a venda de produtos. Toffoli defendeu que essas plataformas sejam responsabilizadas de forma solidária quando permitirem a comercialização de itens proibidos, como medicamentos não autorizados, agrotóxicos ilegais e dispositivos de TV pirata.
Por outro lado, serviços de e-mail, mensageria privada e aplicativos de reuniões fechadas ficaram fora da aplicação das regras de remoção imediata de conteúdo, desde que não sejam usados como redes sociais.
O papel do CNJ e a fiscalização
Caso o entendimento de Toffoli prevaleça, a implementação das novas regras será acompanhada por um órgão especializado, o Departamento de Acompanhamento da Internet no Brasil (DAI). Este será vinculado ao Conselho Nacional de Justiça (CNJ) e terá como função monitorar o cumprimento das decisões judiciais relacionadas a conteúdos digitais.
O ministro também sugeriu que o Congresso tenha até 18 meses para criar uma lei que enfrente a violência digital e a desinformação, estabelecendo um marco regulatório mais abrangente.
O contexto do julgamento
O STF analisa dois processos que questionam a constitucionalidade do Artigo 19 do Marco Civil da Internet. Um deles, relatado por Toffoli, envolve o Facebook, que busca derrubar uma condenação por danos morais relacionados a um perfil falso criado na plataforma. O outro, relatado pelo ministro Luiz Fux, discute se uma empresa que hospeda sites deve fiscalizar e remover conteúdos ofensivos sem ordem judicial.
Enquanto isso, empresas de tecnologia e redes sociais argumentam que já realizam a remoção de conteúdos ilegais de forma voluntária e que um monitoramento mais rígido seria equivalente a censura prévia. Para essas empresas, a responsabilização direta poderia inviabilizar o funcionamento das plataformas, ao impor custos e riscos jurídicos significativos.
Críticas e desafios
O voto de Toffoli também gerou debates sobre os riscos de limitar a inovação e a liberdade de expressão. Especialistas argumentam que exigir monitoramento prévio pode levar as plataformas a adotarem medidas excessivas de remoção, prejudicando debates legítimos e conteúdos críticos.
“Cabe ponderar a principal alegação das big techs: como monitorar as redes para detectar conteúdo com bases subjetivas? A inteligência artificial disponível atualmente não é capaz de fazer tal varredura. Assim, caso seja seguido pelos demais ministros em seu voto, o remédio pode ser pior que a doença, no sentido de que restará às redes sociais, para sua própria proteção, restringir ao máximo a liberdade de expressão em seus ambientes”, explica Thiago Bento dos Santos, advogado da área de direito digital da Lopes & Castelo Sociedade de Advogados.