• New Page 1

    RSSFacebookYouTubeInstagramTwitterYouTubeYouTubeYouTubeYouTubeYouTubeYouTubeYouTube  

STF suspende sessão sem apresentar votos sobre responsabilidade das redes por postagens de usuários


Sessão desta quinta-feira (28) foi marcada pela discussão sobre o papel das redes sociais na retirada de conteúdos dos ataques antidemocráticos de 8 de janeiro. A sessão do Supremo Tribunal Federal (STF) foi adiada, nesta quinta-feira (28), sem uma conclusão para o julgamento que avalia se há responsabilidade das redes sociais pelos conteúdos publicados por usuários.
Na prática, os ministros avaliam se as plataformas podem ser condenadas ao pagamento de indenização por danos morais por não terem retirado do ar postagens — com discursos de ódio, ofensas, fake news ou que prejudiquem terceiros —, mesmo sem uma ordem prévia da Justiça.
Nesta quinta, os ministros ouviram explicações de especialistas e começaram a apresentar os votos, com a manifestação do relator de um dos processos, Dias Toffoli. O julgamento será retomado na próxima quarta-feira (4).
Fachada do Supremo Tribunal Federal.
Gustavo Moreno/SCO/STF
Papel das redes sociais no 8 de janeiro
A sessão desta quinta-feira (28) teve um debate, entre os ministros, sobre o papel das plataformas digitais em relação ao conteúdo publicado no dia 8 de janeiro.
A questão surgiu a partir da manifestação do ministro da Advocacia-Geral da União Jorge Messias. Ao apresentar os argumentos da AGU no caso, Messias citou o que ocorreu no 8 de janeiro de 2023. Em meio à depredação das sedes dos Três Poderes, Messias lembrou que teve que fazer pedidos ao ministro Alexandre de Moraes para que fosse determinada a retirada de conteúdos das redes sociais, que transmitiam a invasão aos prédios públicos. O ministro da AGU lembrou que apenas com a decisão de Moraes as plataformas digitais tomaram providências.
“Estamos tratando de algo maior, da própria sobrevivência do Estado Democrático de Direito”, afirmou Messias.
O advogado-geral da União argumentou ainda que há um ambiente de “infodemia”, que traz prejuízos econômicos e à qualidade da democracia.
Após a fala de Messias, o ministro Alexandre de Moraes – relator de processos relativos ao 8 de janeiro – também falou sobre os atos antidemocráticos. Para ele, não é possível defender que as redes estabeleçam, por si sós, critérios de remoção de postagens.
“O dia 8 de janeiro demonstrou a total falência do sistema de autorregulação de todas as redes, de todas as big techs”, afirmou Moraes.
“É faticamente impossível defender, após o dia 8 de janeiro, que o sistema de autorregulação funciona. Falência total e absoluta. Instrumentalização e, lamentavelmente, parte de conivência”, completou.
Moraes ressaltou que os ataques foram organizados pelas redes e que os criminosos incitavam, em transmissões ao vivo, outras pessoas a participar da destruição.
“Por que digo de falência? Falência porque tudo foi organizado pelas redes, ou parte das redes. Todos se recordam aqui, a festa da Selma. Selma, mulher de um dos generais investigados. Depois, no dia, a Praça dos Três Poderes invadida, o Supremo sendo destruído, o Palácio do Planalto, as pessoas fazendo vídeo, postando nas redes sociais, chamando gente para destruir. E as redes sociais não retiraram nada. Por quê? Like em cima de like, sistema de negócio, monetização… Então, se não fosse pela falência em virtude da organização anterior, foi pela instrumentalização e conivência no dia 8 que se demonstra que autorregulação não funcionou. E não venham – não adiantando voto – não venham dizer que isso é contra a liberdade de expressão”, completou, ressaltando que se trata de um dos julgamentos mais importantes do ano.
Na sequência, a ministra Cármen Lúcia lembrou o caso do homem que detonou explosivos em frente ao Supremo, no último dia 13.
“Este último episódio em frente ao nosso prédio também estava nas redes. A postagem da pessoa atacando o supremo, dizendo que ia fazer alguma coisa e não se conseguiu nem ver, nem vislumbrar, nem nada. O que tivemos foi aquela noite com um ato trágico. Trágico institucionalmente, pessoalmente e de toda natureza”.
Moraes ressaltou que não é possível usar o argumento de que é impossível, tecnologicamente, realizar o controle.
“E não se diga que tecnologicamente não é possível. Porque em relação – sabemos todos – à pornografia infantil, pedofilia e direitos autorais, a inteligência artificial e os algoritmos retiram, antes de um like, 93% das postagens, e os 7% seguintes são encaminhados à comissão de seres humanos. Então, é possível tecnologicamente. O que não houve e não vem havendo é empenho”, declarou.
Voto do relator Dias Toffoli
Ao iniciar seu voto, o ministro Dias Toffoli afirmou que o artigo 19 da lei do Marco Civil da Internet, que está em análise no julgamento, dá uma imunidade às redes sociais.
“Só surge a responsabilidade civil após ordem judicial e o descumprimento da ordem. Se a ordem judicial é cumprida, não há que se pagar dano nenhum. Se dá de ombros. Aquilo pode ter ficado um ano, dois anos – o que já é uma eternidade na internet – sem nenhuma reparação posterior. Porque a responsabilidade, pelo artigo 19, só surge se descumprir a decisão judicial. Se cumpre a decisão judicial, não há responsabilidade. É disso que se trata”.
“O que é ilícito no mundo real, é ilícito no mundo virtual. o que é lícito no mundo real, é lícito no mundo virtual. ponto, simples assim. Não precisaria nem de lei específica para se aplicar o Direito”, completou.
Segundo Toffoli, as redes sociais se alimentam de “inverdades, de estímulo ao ódio, de estímulo a todo tipo de situação ilícita”.
“Aquilo que dá like nas redes sociais não é a verdade, não são as boas ações, não são as redes de ajuda. Infelizmente, o que dá like e impulsionamento, mais marketing, mais publicidade, mais ganho… e, ao fim e ao cabo, é de business, de dinheiro que se trata. Não há interesses aí outros que não o lucro”.
Responsabilidade por danos
Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam responsabilizadas por danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja, a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte deverá elaborar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.
Segundo dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo conteúdo aguardando um desfecho no Supremo.
Adicionar aos favoritos o Link permanente.