Após votos de relatores, STF volta a julgar responsabilidade das redes sociais; saiba como está o julgamento
Julgamento será retomado com o voto do presidente Luís Roberto Barroso, que pediu vista na semana passada. Relatores concluíram que plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos.
O Supremo Tribunal Federal (STF) volta a julgar, nesta quarta-feira (18), a responsabilidade das redes sociais pelos conteúdos postados por seus usuários.
Já apresentaram seus votos os relatores dos dois casos em discussão – os ministros Dias Toffoli e Luiz Fux. Ambos concluem que as plataformas digitais já podem responder pelas postagens de seus usuários mesmo antes de uma ordem judicial para a remoção dos conteúdos (entenda mais abaixo).
STF vai retomar julgamento sobre regulamentação de redes sociais
O próximo a apresentar seu posicionamento é o presidente Luís Roberto Barroso, que tinha pedido vista (mais tempo de análise) na última quarta-feira (11).
Veja abaixo os detalhes dos votos dos relatores dos dois processos – os ministros dias Toffoli e Luiz Fux.
Voto de Luiz Fux
Na última quarta-feira (11), o ministro Luiz Fux apresentou seu voto.
Para o ministro, os provedores são responsáveis pelos conteúdos gerados por terceiros quando tiveram ciência “inequívoca” dos atos ilícitos. Isto é, foram informados por meios adequados e, mesmo assim, não removeram a postagem imediatamente.
De acordo com Fux, podem ser considerados conteúdos ilegais os que tratem de discurso de ódio, crime, racismo, pedofilia, incitação à violência, apologia à abolição violenta ao Estado de Direito e ao golpe de Estado. Nestas situações, considerou o ministro, há um dever de monitoramento ativo das redes sociais, ou seja, elas precisam agir para evitar os danos causados por estas publicações.
Quando a postagem for ofensiva à honra, à imagem e à privacidade (caracterizadores de crimes previstos na lei penal – injúria, calúnia e difamação), a responsabilidade civil destes provedores pode ocorrer se, havendo prévia notificação por eles por parte das vítimas e seus advogados, eles não tomarem a providência de retirar o material do ar.
Fux estabelece que as redes sociais “têm o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados”.
Voto de Dias Toffoli
O primeiro a votar foi o ministro Dias Toffoli. O magistrado considerou que é inconstitucional a regra que prevê a responsabilidade por danos das redes sociais apenas quando não cumprem a ordem judicial de remoção de conteúdo.
O ministro propôs que as plataformas sejam consideradas responsáveis por uma publicação a partir do momento em que receberem uma notificação pedindo a retirada do conteúdo, por ser falso ou ofensivo.
Toffoli previu ainda algumas situações em que não será necessária a notificação extrajudicial para que as plataformas tomem providências. Ou seja, nestas circunstâncias, as big techs têm o dever de agir para evitar os danos. Dessa forma, se não fizerem isso, estão sujeitas à responsabilidade objetiva.
Esta é uma modalidade de responsabilidade aplicada em alguns casos específicos previstos na legislação, em que não é preciso comprovar que houve dolo ou culpa da empresa no episódio. Uma vez com a questão em discussão na Justiça, no caso concreto, a empresa pode provar que não teve participação, ou que não há relação de causa e efeito entre a irregularidade e suas atitudes.
São situações em que os provedores devem agir, mesmo sem notificação extrajudicial:
▶️quando recomendam, impulsionam (de forma remunerada ou não) ou moderam o conteúdo considerado irregular. Neste caso, a empresa responde junto com o anunciante (quando o conteúdo for patrocinado).
▶️quando o dano foi causado por perfis falsos, perfis anônimos ou automatizados;
▶️quando a irregularidade envolver direitos autorais. Também nesta situação, a empresa responde junto com a pessoa que fez a publicação ilegal.
▶️quando a postagem ilícita envolve uma série de atos e crimes graves: crimes contra a democracia, terrorismo, instigação ao suicídio ou automutilação, racismo, violências contra a criança, o adolescente e as pessoas vulneráveis, violência contra a mulher, infrações contra medidas de saúde pública em situações de emergência em saúde, tráfico de pessoas, incitação ou ameaça à violência física ou sexual, divulgação de notícias falsas para incentivar violência física, divulgação de notícias falsas sobre o processo eleitoral.
O ministro fixou que, se a empresa tiver dúvidas sobre a ocorrência destas situações, deve remover o conteúdo quando tiver notificação extrajudicial.
Toffoli deixou claro que estas regras não se aplicam a:
▶️serviços de email (Gmail, Outlook, etc);
▶️aplicativos de realização de reuniões fechadas por vídeo ou voz (Zoom, Google Meet, etc)
▶️aplicativos de mensagens instantâneas, quando o diálogo envolve pessoas determinadas, com o resguardo de sigilo das comunicações (Whatsapp, Telegram, etc);
Em relação aos marketplaces (páginas de vendas de produtos), o ministro fixou que as empresas respondem junto com os anunciantes por propaganda de produtos de venda proibida, sem certificação ou aval dos órgãos competentes.
Por fim, o magistrado estabeleceu uma série de requisitos para os provedores de internet devem:
▶️atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e redução dos danos;
▶️manter atualizados e dar publicidade aos “termos e condições de uso” (ou documento equivalente); também devem elaborar códigos de conduta;
▶️criar mecanismos para assegurar a autenticidade das contas e a correta identificação dos respectivos usuários, adotando as medidas necessárias para impedir a criação de perfis falsos e automatizando, agindo para bloqueá-los assim que forem identificados;
▶️estabelecer regras claras e procedimentos padronizados para a moderação de conteúdos, assim como divulgar estas informações;
▶️atualizar constantemente critérios e métodos empregados para a moderação de conteúdos;
▶️combater a difusão de desinformação nos ambientes virtuais, adotando as providências necessárias para a neutralização de redes artificiais de distribuição de conteúdo irregular, assim como identificar o perfil que originou a notícia falsa;
▶️monitorar riscos de seus ambientes digitais, elaborando relatórios de transparência;
▶️devem ofertar canais específicos de notificação, preferencialmente eletrônicos, para o recebimento de denúncias quanto à existência de conteúdo considerado ofensivo ou ilícito, que terá apuração prioritária; estes canais devem permitir o acompanhamento das reclamações.
▶️devem atuar para previnir e reduzir práticas ilegais no seu âmbito de atuação;
▶️provedores de internet com sede no exterior e atuação no Brasil devem ter representante no país, cuja identificação e informações para contato devem ser divulgadas;
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.