Nesta quinta-feira (28), o Supremo Tribunal Federal (STF) adiou, pelo segundo dia consecutivo, a votação sobre se as redes sociais devem ser responsabilizadas pelas publicações de seus usuários.
A sessão foi adiada após os ministros ouvirem especialistas e começarem a apresentar seus votos, com manifestação do relator do processo, Dias Toffoli, segundo o g1.
O que os ministros discutem são se tais apps podem ser condenados a pagar indenização por danos morais por não retirarem do ar publicações envolvendo discurso de ódio, fake news e provocação de problemas a terceiros, sem ordem da Justiça.
STF inicia votação sobre responsabilidade de redes sociais, mas não termina
- Toffoli afirmou que retoma a votação na semana que vem com item acerca “da necessária regulação suficiente da internet”;
- No fim da sessão, o ministro ressaltou que o Marco Civil da Internet precisa ser atualizado, especialmente, os itens relacionados à responsabilidade dos provedores;
- Agora, os ministros voltam a votar a pauta apenas na próxima quarta-feira (4), com a conclusão de Toffoli e a manifestação de Luiz Fux, segundo relator do tema, seguido pelos demais ministros.
Nesta quinta-feira (28), os ministros debateram o papel das plataformas digitais sobre o conteúdo publicado em 8 de janeiro de 2023. A questão veio por manifestação do ministro da Advocacia-Geral da União (AGU), Jorge Messias.
Durante a depredação das sedes dos Três Poderes, Messias disse que precisou pedir ao ministro Alexandre de Moraes para que fosse determinada a exclusão de transmissões ao vivo do ocorrido nas redes sociais. O ministro da AGU lembrou ainda que, apenas com a decisão de Moraes, as plataformas agiram.
“Estamos tratando de algo maior, da própria sobrevivência do Estado Democrático de Direito”, afirmou. Ele também disse haver ambiente de “infodemia” (excesso de informações), trazendo prejuízos econômicos e à qualidade da democracia brasileira.
Na sequência, Moraes, relator dos processos relativos ao 8 de janeiro, também falou sobre o vandalismo. Para ele, não se pode defender que as redes sociais estabeleçam, por si sós, critérios para remoção de publicações.
“O dia 8 de janeiro demonstrou a total falência do sistema de autorregulação de todas as redes, de todas as big techs”, afirmou, e prosseguiu: “É faticamente impossível defender, após o dia 8 de janeiro, que o sistema de autorregulação funciona. Falência total e absoluta. Instrumentalização e, lamentavelmente, parte de conivência.”
O ministro do STF ressaltou ainda que os ataques foram organizados via redes sociais e que os criminosos incentivavam outras pessoas a participar do ato via lives nas plataformas.
Por que digo de falência? Falência porque tudo foi organizado pelas redes, ou parte das redes. Todos se recordam aqui, a festa da Selma. Selma, mulher de um dos generais investigados. Depois, no dia, a Praça dos Três Poderes invadida, o Supremo sendo destruído, o Palácio do Planalto, as pessoas fazendo vídeo, postando nas redes sociais, chamando gente para destruir.
Alexandre de Moraes, ministro do STF, durante sessão do Supremo nesta quinta-feira (28)
“E as redes sociais não retiraram nada. Por quê? Like em cima de like, sistema de negócio, monetização… Então, se não fosse pela falência em virtude da organização anterior, foi pela instrumentalização e conivência no dia 8 que se demonstra que autorregulação não funcionou. E não venham — não adiantando voto — não venham dizer que isso é contra a liberdade de expressão”, completou, ressaltando tratar-se de um dos julgamentos mais importantes do ano.
Já a ministra Cármen Lúcia lembrou o caso do homem que detonou explosivos em frente ao Supremo, no dia 13 deste mês. “Este último episódio em frente ao nosso prédio também estava nas redes. A postagem da pessoa atacando o supremo, dizendo que ia fazer alguma coisa e não se conseguiu nem ver, nem vislumbrar, nem nada. O que tivemos foi aquela noite com um ato trágico. Trágico institucionalmente, pessoalmente e de toda natureza”.
Moraes frisou não ser possível usar o argumento de que é impossível, tecnologicamente falando, realizar esse controle. “E não se diga que tecnologicamente não é possível. Porque em relação — sabemos todos — à pornografia infantil, pedofilia e direitos autorais, a inteligência artificial e os algoritmos retiram, antes de um like, 93% das postagens, e os 7% seguintes são encaminhados à comissão de seres humanos. Então, é possível tecnologicamente. O que não houve e não vem havendo é empenho”, pontuou.
Leia mais:
- Threads: como conseguir seguidores na rede social
- Quer criar áudios com inteligência artificial? Então, veja como funciona a ElevenLabs
- Microsoft é investigada por suposta concorrência desleal nos EUA
Voto de Dias Toffoli
Toffoli, em seu voto, afirmou que o artigo 19 da lei do Marco Civil da Internet, em análise no julgamento do Supremo, dá imunidade às redes sociais.
“Só surge a responsabilidade civil após ordem judicial e o descumprimento da ordem. Se a ordem judicial é cumprida, não há que se pagar dano nenhum. Se dá de ombros. Aquilo pode ter ficado um ano, dois anos— o que já é uma eternidade na internet — sem nenhuma reparação posterior. Porque a responsabilidade, pelo artigo 19, só surge se descumprir a decisão judicial. Se cumpre a decisão judicial, não há responsabilidade. É disso que se trata. O que é ilícito no mundo real, é ilícito no mundo virtual. o que é lícito no mundo real, é lícito no mundo virtual. Ponto, simples assim. Não precisaria nem de lei específica para se aplicar o Direito”, alegou.
O ministro também disse que as redes sociais se alimentam de “inverdades, de estímulo ao ódio, de estímulo a todo tipo de situação ilícita”. “Aquilo que dá like nas redes sociais não é a verdade, não são as boas ações, não são as redes de ajuda. Infelizmente, o que dá like e impulsionamento, mais marketing, mais publicidade, mais ganho… e, ao fim e ao cabo, é de business, de dinheiro que se trata. Não há interesses aí outros que não o lucro”, concluiu.
O que está sendo julgado
Os ministros estão julgando dois recursos que pedem que as redes sociais sejam responsabilizadas por danos causados por publicações de usuários, mesmo sem ordem judicial para remoção dessas postagens.
Portanto, eles vão definir se as plataformas podem ser condenadas a pagar indenizações por danos morais por não terem retirado publicações com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça.
Marco Civil da Internet
Os casos envolvem a aplicação de trecho do Marco Civil da Internet. Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas pelos danos causados por conteúdos ofensivos caso não tomem uma atitude após determinação judicial.
O STF deverá elaborar uma tese que será aplicada em processos sobre o tema nas instâncias inferiores da Justiça. Segundo dados do Conselho Nacional de Justiça (CNJ), há, ao menos, 345 casos com a mesma temática aguardando desfecho na Corte.
O post Novamente, STF termina sessão e não vota responsabilidade de redes sociais por postagens de usuários apareceu primeiro em Olhar Digital.