Política

Toffoli vota para aumentar responsabilidade de big techs por conteúdos nas redes

O ministro Dias Toffoli, do Supremo Tribunal Federal (STF), votou, nesta quinta-feira (5), para aumentar a responsabilidade das plataformas digitais por conteúdos postados pelos usuários na internet.

O julgamento será retomado na próxima quarta-feira (11), com o voto do ministro Luiz Fux.

Em seu voto, Toffoli propôs a adoção de um dever de monitoramento pelas plataformas sobre conteúdos ilícitos, com a possibilidade de punição mesmo que não haja uma notificação ou uma decisão determinando a derrubada de publicações.

Para o ministro, a regra atual que estabelece o regime de responsabilidade das chamadas big techs é inconstitucional.

Toffoli concluiu na tarde desta quinta (5) o seu voto no julgamento sobre o regime de responsabilidade das plataformas.

O ministro é o relator de um dos processos sobre o assunto. Ele começou a votar na última quinta (28).

A Corte julga dois recursos sobre o assunto. O outro caso é relatado por Luiz Fux, que será o segundo a votar, na quarta (11).

Os casos tratam da responsabilidade das plataformas digitais sobre conteúdos publicados pelos usuários das redes. Parte da análise é voltada aos dispositivos do Marco Civil da Internet, uma lei de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.

Punição sem decisão

Toffoli votou para tornar como regra geral a responsabilização da plataforma após notificação extrajudicial do usuário pedindo a remoção de alguma publicação. Se ela deixar de tomar alguma providência, poderá ser punida (mesmo sem uma decisão judicial).

Hoje, como regra geral, essa responsabilidade só ocorre quando a plataforma deixa de cumprir uma decisão judicial mandando remover alguma publicação.

Conforme a proposta, a plataforma poderá avaliar caso a caso e manter no ar a publicação, se entender que o conteúdo é lícito. Nesses casos, a demanda poderá ser levada para a Justiça avaliar a manutenção ou não do post.

A nova regra valeria para conteúdos “ofensivos” e “ilícitos” que vão de danos à honra e à imagem até materiais “inequivocamente desinformativos”, como as “notícias fraudulentas”.

Atualmente, conforme o artigo 19 do Marco Civil da Internet, a plataforma só pode ser punida se deixar de cumprir uma decisão judicial determinando a derrubada de conteúdo.

Pela lei, só existem duas exceções a esse comando: divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial – se deixar de adotar providência, pode ser punida.

“Responsabilidade objetiva”

O ministro também propôs fixar um rol de critérios de “responsabilidade objetiva”.

São situações em que as plataformas devem ter um dever de monitoramento e de remoção – independentemente de terem sido ou não notificadas por alguém – sob pena de serem responsabilizadas caso mantenham as publicações no ar.

Entram nessa categoria conteúdos com crimes contra o Estado de Direito, atos de terrorismo, racismo, violência contra criança, mulheres e pessoas vulneráveis, tráfico de pessoas, incitação à prática de violência física ou sexual  e fatos “notoriamente inverídicos ou gravemente descontextualizados” com potencial de causar dano ao processo eleitoral.  

Segundo Toffoli, em caso de dúvida, a plataforma pode esperar ser eventualmente notificada por algum usuário para derrubar a publicação.  

“Havendo dúvida razoável sobre essas práticas, a plataforma pode se valer do artigo 21 e aguardar a notificação. Mas, se depois o Judiciário entender que a responsabilidade era objetiva, ela [plataforma] vai ser responsabilizada não a partir da notificação, mas a partir do fato” . 

As plataformas também passariam a ter responsabilidade objetiva por contas inautênticas e os chamados “perfis falsos” e por eventuais danos causados por publicações que tenham impulsionadas para alcançar um público maior. 

Exceções

Segundo Toffoli, não entram na regra proposta de responsabilidade:

  • provedores de serviço de e-mail;
  • provedores de reuniões fechadas por vídeo ou áudio (como Zoom ou Meets);
  • provedores de mensagens privadas interpessoais (como WhatsApp ou Telegram);

Com relação aos serviços de mensagem, eles podem ser responsabilizados se ficar constatado uma função como “rede social”, como grandes grupos, comunidades, canais ou listas de transmissão. Se houver disseminação de conteúdo ilícito nesses formatos, incide a regra geral da notificação extrajudicial.

Em casos de marketplace, só há responsabilidade (no caso, solidária com o anunciante) nos casos de anúncio de venda de produtos proibidos ou sem certificação.

Outra exceção é para veículos jornalísticos. Nesses casos, a responsabilidade por conteúdo é regulada pela lei do Direito de Resposta, de 2015.

Providências

Por fim, Toffoli votou para impor uma série de obrigações às plataformas. Entre elas, a criação de mecanismos para assegurar a autenticidade das contas e perfis, o combate a notícias falsas e a criação de canais de denúncia sobre publicações ilícitas.

Outro ponto proposto foi a obrigação de indicar um representante legal no Brasil, no caso de plataformas com sede no exterior. Este foi um dos fatos que levaram à suspensão do X (antigo Twitter), por decisão do STF, em agosto.

O ministro ainda fez um “apelo” ao Executivo e Legislativo para que, em até 18 meses, criem uma política pública destinada ao enfrentamento da violência digital e da desinformação.

Análise

A Corte julga dois recursos apresentados por Facebook e Google. As empresas questionam as regras para funcionamento das plataformas e o regime de responsabilidade sobre conteúdos postados por usuários.

Os casos têm repercussão geral reconhecida, ou seja, o que for definido valerá para todos os casos semelhantes na Justiça.

O recurso do Facebook foi apresentado após a plataforma ter sido condenada a indenizar uma dona de casa que foi vítima de um perfil falso com conteúdo ofensivo.

O recurso do Google discute o caso de uma professora que pediu a retirada de uma comunidade do Orkut com conteúdo pejorativo contra ela. A questão nesse caso é se a empresa hospedeira do conteúdo tem ou não a obrigação de fiscalizar e retirar conteúdo do ar.

Como é hoje

Atualmente, o Marco Civil da Internet só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei.

A responsabilidade civil envolve o dever de indenizar eventuais danos, por exemplo.

As duas exceções a esse comando são: divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.

Big techs

Facebook e Google se manifestaram em 27 de novembro.

As big techs admitiram a possibilidade de um aumento de responsabilidade das plataformas sobre publicações que envolvam conteúdos relacionados a tentativa de golpe de Estado ou de abolição violenta do Estado de Direito.

As duas companhias defendem o modelo atual de regulação do setor, e pedem que o Supremo confirme sua validade.

Ambas, no entanto, fizeram proposições caso a Corte decida que é preciso mudar a atual forma de tratamento do assunto.

Elas admitem uma responsabilidade maior para um rol limitado de temas e só para publicações em que se seja possível identificar objetivamente crimes ou condutas irregulares previstas em lei.

Além de golpe, foram citados casos como terrorismo e abuso infantil, por exemplo.

O que muda com a decisão do STF sobre CLT para servidor público?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *