(José Cruz/Agência Brasil)
02 de julho de 2025 | 5 min de leitura
O Supremo Tribunal Federal (STF) concluiu na quinta-feira
o julgamento sobre a responsabilidade das redes sociais por conteúdos ilegais
publicados. Os ministros consideram parcialmente inconstitucionais as regras
previstas no artigo 19 do Marco Civil da Internet e estabeleceram que as
plataformas digitais têm o dever de retirar conteúdos ilícitos após terem sido
comunicadas sobre ele. Foi mantida uma exceção para os crimes contra a honra.
Entenda a seguir as regras definidas:
Responsabilidade por conteúdos
As redes sociais podem ser responsabilizadas por danos
gerados por conteúdos publicados por terceiros, que envolvam crimes ou atos
ilícitos, caso sejam notificadas e não removam a postagem.
Crimes contra a honra
Para crimes como calúnia, difamação e injúria, continuam
valendo as regras atuais, de que é necessária uma ordem judicial para a
remoção. Somente se essa ordem for descumprida as plataformas têm
responsabilidade.
Caso um conteúdo que já tenha sido reconhecido como
ofensivo pelo Judiciário seja replicado, os provedores devem remover as
publicações a partir de uma notificação.
Conversas privadas
Também há a necessidade de ordem judicial para remoção de
conteúdos em serviços de mensagens, como WhatsApp e Telegram, para e-mail e
para aplicativos de reuniões fechadas, como o Zoom.
Conteúdos patrocinados
Há uma “presunção de responsabilidade”, independente de
notificação, dos conteúdos de anúncios pagos ou distribuídos de forma
artificial (como por robôs). As plataformas ficam isentas se provarem que
agiram em tempo razoável para remover as publicações.
Dever de cuidado
Plataformas precisam impedir publicação de conteúdos com
condutas e atos antidemocráticos; terrorismo; instigação ou auxílio a suicídio
ou a automutilação; incitação à discriminação em razão de raça, cor, etnia,
religião, procedência nacional, sexualidade ou identidade de gênero; crimes
praticados contra a mulher em razão da condição do sexo feminino; crimes
sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra
crianças e adolescentes.
Os provedores podem ser responsabilizados caso ocorra uma
“falha sistêmica” em relação a esses conteúdos, mas não por publicações
isoladas.
Sede no Brasil
As plataformas precisam ter uma sede e um represente no
país, com identificação e informações para contato disponibilizadas de forma
acessível.
Transparência
As empresas deverão apresentar relatórios anuais de
transparência sobre notificações extrajudiciais, anúncios e impulsionamento.
Comércio
Os marketplaces, sites onde são vendidos conteúdos de
terceiros, respondem as regras do Código de Defesa do Consumidor.
Apelo ao Legislativo
Os ministros aprovaram um “apelo” ao Congresso para que
elabore uma legislação “capaz de sanar as deficiências do atual regime quanto à
proteção de direitos fundamentais”.