O
Supremo Tribunal Federal (STF) reconheceu, no fim de junho, a inconstitucionalidade
parcial do artigo 19 do Marco Civil da Internet. Esse artigo
previa que os provedores de aplicações — como redes sociais e plataformas
digitais — só poderiam ser responsabilizados civilmente por conteúdos gerados
por terceiros após decisão judicial e
caso não tomassem providências para a remoção.
Com
a nova interpretação, o STF estabeleceu exceções importantes em
que as plataformas poderão ser responsabilizadas mesmo
sem ordem judicial, marcando um novo momento no cenário
jurídico digital brasileiro.
Em
quais casos as plataformas passam a responder diretamente?
A
decisão prevê responsabilização quando:
Conteúdos
ilícitos forem impulsionados ou patrocinados, ou divulgados por redes
artificiais (como robôs e sistemas automatizados);
Houver
falha na remoção de conteúdos graves que circulam massivamente na
internet, como:
atos
antidemocráticos,
terrorismo,
incitação
ao suicídio ou automutilação,
crimes
sexuais contra vulneráveis,
discurso
de ódio (racial, religioso, de gênero, contra mulheres),
pornografia
infantil e
tráfico
de pessoas.
Nessas
situações, a empresa deve agir com agilidade e
diligência. A ausência de mecanismos eficazes de controle pode
configurar falha sistêmica, dando
ensejo à responsabilização civil.
Decisão
vale para casos futuros
O
STF modulou os efeitos da decisão para garantir segurança jurídica: a nova
interpretação valerá apenas para casos futuros,
sem atingir decisões judiciais anteriores.
Obrigação
de remover conteúdos repetidos
O
tribunal também estabeleceu que, após uma publicação ser considerada ilícita
por decisão judicial, as plataformas devem remover conteúdos
idênticos que voltem a ser publicados — mesmo que sem nova
ordem judicial — desde que notificadas oficialmente por
via judicial ou extrajudicial.
Responsabilidade
continua sendo subjetiva
O
STF reafirmou que a responsabilidade das plataformas segue sendo subjetiva.
Ou seja, é necessário demonstrar que houve falha ou omissão na
atuação da empresa para que ela seja responsabilizada.
A
decisão reforça a necessidade de ações preventivas e mecanismos de
moderação mais eficazes por parte das plataformas
digitais, especialmente diante do aumento de conteúdos ilícitos na internet. O
julgamento também se alinha a uma tendência global de exigir
condutas mais proativas das big techs na proteção de
usuários e na preservação de direitos fundamentais no ambiente digital.
Bianca
Wosch -
Advogada do escritório Alceu Machado, Sperb & Bonat Cordeiro Advocacia, com
atuação em Direito Civil e Empresarial.





.png)