O Supremo Tribunal Federal (STF) realizará julgamentos importantes no dia 27 de novembro de 2024, quando serão analisadas três ações que discutem o papel das big techs e a aplicação do Marco Civil da Internet no Brasil. Este julgamento promete moldar a forma como as plataformas digitais serão responsabilizadas pelo conteúdo postado pelos usuários. Sob a relatoria dos ministros Dias Toffoli, Luiz Fux e Edson Fachin, as ações envolvem temas cruciais para o futuro da regulamentação da internet, incluindo a responsabilidade civil das empresas e a possibilidade de remoção de conteúdo sem necessidade de decisão judicial. A definição do julgamento foi realizada pelo presidente do STF, ministro Luís Roberto Barroso, após os relatores liberarem os processos para análise conjunta em plenário.
O Marco Civil da Internet, instituído pela Lei nº 12.965/2014, estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil e tem sido a principal base legal para a regulamentação das atividades online. O artigo 19 da referida lei, no entanto, está no centro da controvérsia dessas ações. Esse artigo dispõe que as plataformas digitais só podem ser responsabilizadas civilmente por conteúdos postados por terceiros caso descumpram ordem judicial que determine a remoção do material. Contudo, a discussão atual busca avaliar se essa responsabilidade deve ser ampliada, especialmente em situações envolvendo conteúdos que possam prejudicar a democracia, incitar violência ou disseminar discursos de ódio.
O ponto mais controverso do debate é a possibilidade de as plataformas serem responsabilizadas por conteúdos postados sem a necessidade de uma ordem judicial prévia. A Advocacia-Geral da União (AGU), em manifestação no caso, defendeu que as plataformas digitais devem ser obrigadas a remover conteúdos considerados prejudiciais assim que notificados pelos usuários, sem aguardar uma decisão judicial. A AGU argumenta que, em casos de fraude, criação de perfis falsos, desinformação e crimes, as plataformas têm condições de agir prontamente para evitar danos, ampliando assim a responsabilidade dessas empresas além do que foi originalmente previsto no Marco Civil.
Esse entendimento, segundo a AGU, se justifica pelo aumento da complexidade das interações digitais e pelos potenciais danos que podem decorrer da não intervenção rápida das plataformas. O órgão ressaltou que as plataformas devem ser mais proativas na moderação de conteúdos, uma vez que desempenham uma atividade lucrativa e têm um papel central na difusão de informações. A AGU defende, portanto, que a interpretação literal do artigo 19 do Marco Civil da Internet é insuficiente para proteger os direitos fundamentais previstos na Constituição de 1988, e que o aumento da responsabilidade das big techs é necessário para conter a disseminação de conteúdos prejudiciais.
Atualmente, no entanto, o principal mecanismo efetivo para fazer cumprir e respeitar os direitos infringidos através de redes sociais envolve recorrer aos termos e condições de uso da própria plataforma. Com o subsídio do direito a ser protegido e a infração do regulamento interno da ferramenta, o êxito nas solicitações de retirada de conteúdo infrator se mostra mais frequente. No entanto, o que a AGU busca é facilitar a atuação protetiva dos usuários mediante a modificação do entendimento legal, trazendo para o cerne da legislação a responsabilização das plataformas, obrigando-as a agir prontamente em casos ilícitos, dispensando a judicialização do caso para a finalidade obrigacional. De forma independente da regulamentação da própria plataforma, as companhias seriam compelidas a agir em conformidade com a legislação vigente que, a partir da adequação proposta, traria maior segurança ao ambiente digital.
Outro ponto a ser discutido é o bloqueio de aplicativos de mensagens, como o WhatsApp, em decorrência de decisões judiciais. A ação relatada pelo ministro Edson Fachin questiona se o bloqueio de aplicativos viola o direito à liberdade de expressão e comunicação, além do princípio da proporcionalidade. O WhatsApp já foi bloqueado em algumas ocasiões por não cumprir decisões judiciais de fornecer informações de usuários envolvidas em investigações criminais. Contudo, o bloqueio total da plataforma afeta milhões de pessoas e pode gerar graves consequências econômicas e sociais, razão pela qual esse tema tem sido alvo de intensos debates.
As big techs, como Meta (dona do Facebook, Instagram e WhatsApp) e Google, são diretamente afetadas por essas discussões. Essas empresas têm argumentado que o Marco Civil da Internet já estabelece um equilíbrio adequado entre liberdade de expressão e responsabilidade por conteúdos postados. No entanto, a crescente pressão por maior controle sobre a desinformação, discursos de ódio e crimes cibernéticos exige que as plataformas reavaliem suas políticas de moderação de conteúdo. O julgamento no STF pode levar a uma mudança significativa na forma como essas gigantes digitais atuam no Brasil, exigindo que adotem medidas mais rigorosas.
Por outro lado, críticos da ampliação de responsabilidade para as plataformas argumentam que isso pode representar uma forma de censura prévia, pois permitiria que empresas privadas determinassem o que pode ou não ser postado, sem a necessidade de supervisão judicial. Essa abordagem pode gerar riscos para a liberdade de expressão, especialmente em um contexto em que há divergências sobre o que constitui desinformação ou discurso de ódio. O equilíbrio entre proteção de direitos fundamentais e preservação da liberdade na internet será um dos principais desafios a serem enfrentados pelos ministros do STF.
O julgamento dessas ações tem implicações profundas não apenas para a forma como a internet será regulada no Brasil, mas também para a relação entre governo, plataformas digitais e sociedade. Se o STF optar por ampliar a responsabilidade das big techs, isso poderá abrir precedentes para que outros países sigam o mesmo caminho, impondo mais responsabilidades a essas empresas em nível global. Por outro lado, uma decisão que mantenha o status quo pode ser vista como um reforço à liberdade de expressão, mas também como um recuo na luta contra a desinformação e os discursos de ódio.
Assim, o julgamento do STF em novembro de 2024 será um marco na definição dos limites da atuação das big techs no Brasil, especialmente no que diz respeito à responsabilidade civil e ao equilíbrio entre liberdade de expressão e proteção de direitos fundamentais. A decisão poderá redefinir o papel das plataformas na moderação de conteúdos, com impacto direto sobre o futuro da internet no país e, potencialmente, em outras nações que enfrentam desafios semelhantes.
--------
Créditos da Imagem: Freepik