Por Débora Prado -- 20/08/2025
Fonte: APC
Em 26 de junho deste ano, o Supremo Tribunal Federal (STF) concluiu seu julgamento sobre o Marco Civil da Internet (MCI) – uma legislação pioneira, aplicada há 11 anos para definir princípios, direitos e deveres para o uso da internet no país. Mais especificamente, o tribunal estava avaliando a constitucionalidade do Artigo 19, que trata da responsabilização das plataformas por danos decorrentes de conteúdo postado por usuários.
A APC entrevistou Flávia Lefèvre e Oona Castro, do Instituto Nupef, um dos fundadores e membros da APC no Brasil, para entender os prós e contras da recente decisão, as pressões decorrentes da ascensão da extrema direita no país e no mundo, e os possíveis caminhos para salvaguardar os direitos digitais e responsabilizar as grandes empresas de tecnologia, considerando o sólido histórico de resistência das organizações da sociedade civil brasileira.
O que o Nupef destacaria como positivo e/ou negativo nas mudanças trazidas pela recente decisão do Supremo Tribunal Federal?
O Supremo Tribunal Federal (STF) é o órgão no Brasil com competência legal para tratar de direitos constitucionais e tem a palavra final nas análises sobre a constitucionalidade de dispositivos de leis ordinárias. Este artigo do MCI estabelece que provedores de aplicações de internet não podem ser responsabilizados por conteúdo produzido por usuários/terceiros, salvo se estes se opuserem ao cumprimento de ordem judicial específica que determine a remoção do conteúdo.
Os objetivos do Artigo 19 são, como consta em sua redação, impedir a censura prévia e garantir a liberdade de expressão. Trata-se da materialização de um dos princípios internacionalmente aceitos de governança da internet – o da não imputabilidade da rede.
A lógica por trás do Artigo 19 era que, para impedir que plataformas removessem conteúdo arbitrariamente com base em critérios vinculados a seus interesses comerciais e lucrativos, elas não deveriam ser responsabilizadas pelo conteúdo publicado por seus usuários. Assim, o legislador queria garantir que a legalidade de um determinado conteúdo fosse analisada pelo judiciário, sem a contaminação de interesses privados. Entendeu-se, na época, que responsabilizar as plataformas tinha o potencial de limitar o debate político e a liberdade de expressão no que era então a "nova" arena pública de discussão.
Assim, a sociedade civil tem defendido que os aplicativos de conteúdo não devem ser responsabilizados pelo que é postado pelos usuários, exceto em casos de crimes flagrantes, acreditando que isso promoveria um ambiente de maior liberdade de expressão – em oposição às iniciativas que então surgiam no Congresso Nacional para penalizar e criminalizar diversos usos da internet nos anos 2000.
No entanto, nos últimos anos, a liberdade de expressão se misturou à desinformação, e as plataformas pouco ou nada fizeram para mitigar a proliferação de desinformação online. Pelo contrário, seus algoritmos frequentemente incentivam esse tipo de conteúdo. Diante disso, parte do setor progressista e da sociedade civil começou a argumentar que as plataformas deveriam ter o poder de remover conteúdo sem ordem judicial.
A recente discussão judicial sobre a responsabilidade das plataformas, no entanto, ignorou outras disposições expressas no MCI, que responsabiliza as plataformas por suas próprias ações sob a lei brasileira.
O desenvolvimento de algoritmos de moderação de conteúdo, calibrados para ampliar o alcance de conteúdos que violem a lei, bem como a promoção paga de conteúdos que incentivem discriminação ilegal, discurso de ódio, entre outros atos ilícitos, e até mesmo a recomendação de conteúdo ilícito, são atos das próprias plataformas, que lhes trazem lucro e, portanto, essas empresas, pela legislação vigente, devem ser responsabilizadas, juntamente com o autor do conteúdo, pelos danos causados por suas práticas comerciais.
Em outras palavras, o regime de responsabilidade do Marco Civil da Internet distingue entre responsabilidade por atos de terceiros (artigo 19) e responsabilidade por atos específicos das plataformas (artigo 3º). No entanto, o Supremo Tribunal Federal ignorou essa distinção e, ao decidir sobre a constitucionalidade do artigo 19, determinou a constitucionalidade parcial do dispositivo, afirmando que ele permanece válido para crimes contra a honra – calúnia, injúria e difamação.
Além disso, ampliou a lista de casos em que a plataforma deve exercer o que chamou de dever de cuidado, inspirado na legislação da Comunidade Europeia, obrigando-a a remover conteúdo quando motivada por notificação extrajudicial ou quando, a seu juízo, houver conteúdo ilegal.
Embora esteja claro que é necessário regular a operação das plataformas e comprometê-las a combater a desinformação, o Nupef está preocupado com o poder dado às empresas proprietárias de aplicativos de conteúdo para definir o que pode ou não ser removido/publicado.
Que caminhos existem para promover a responsabilização das plataformas, minimizando os riscos de censura e violações da verdadeira liberdade de expressão? E como podemos construir esses caminhos, dissipando os mitos criados para o uso indevido da ideia de liberdade de expressão a fim de impedir qualquer forma de regulamentação e responsabilização?
A legislação brasileira já responsabiliza as plataformas, como é o caso do nosso Código do Consumidor, Lei Eleitoral e Estatuto da Criança e do Adolescente, que poderiam e deveriam ter sido aplicados há muito tempo, como explicamos na resposta anterior.
A regulamentação das plataformas, independentemente da discussão sobre responsabilidade, deve se concentrar em suas práticas algorítmicas, na transparência, na obrigatoriedade de relatórios periódicos sobre os critérios utilizados para remoção de conteúdo e suspensão de contas e seus resultados, bem como na disponibilidade de aplicativos que permitam aos reguladores e pesquisadores acesso aos dados relacionados a essas práticas.
Além disso, seria necessário que as autoridades públicas competentes em matéria de proteção ao consumidor, defesa da concorrência, entre outras, aplicassem de fato as leis que já existem e não são respeitadas pelas plataformas. Por exemplo, existem milhares de casos de conteúdo ilegal circulando nas redes sociais, afetando principalmente crianças e adolescentes, principalmente agora com o avanço da Inteligência Artificial.
O mesmo pode ser dito dos debates ideológicos e políticos, marcados pela desinformação, que já causaram danos concretos às instituições democráticas do país, como o Congresso Nacional e o próprio Supremo Tribunal Federal, como vimos com a tentativa de golpe de Estado que culminou nos atentados em Brasília, em 8 de janeiro de 2023, que visavam impedir a posse do presidente eleito em 2022, Luis Inácio Lula da Silva.
Quais são os próximos passos? Por que é importante ter uma lei regulatória no Congresso Nacional, além da decisão judicial?
A situação atual do Brasil, com a configuração que temos no Poder Legislativo, com preponderância de parlamentares de direita ou ultradireita, nos desafia a aprovar uma lei, nos moldes de um projeto de lei proposto em 2020 (PL 2630/2020), que continha uma proposta amplamente debatida, mas que foi arquivada, entre outros motivos, por lobby das plataformas, acolhido pelo então presidente da Câmara dos Deputados.
Após a eleição de Donald Trump nos EUA, o desafio é ainda maior, ele atua em defesa dos interesses das plataformas para evitar a regulamentação de suas atividades e impõe sanções ao Brasil com menção expressa à questão das Big Techs, que apoiaram e financiaram sua eleição.
Que aspectos do processo brasileiro poderiam servir de inspiração para outros países ou no debate internacional sobre responsabilização de plataformas?
Acreditamos que a lição que podemos aprender desses processos recentes envolvendo os poderes legislativo e judiciário é que a luta por transparência, responsabilização e respeito à liberdade de expressão está profundamente relacionada ao ambiente político.
Isso aponta para a necessidade de nos organizarmos para enfrentar os ideais neoliberais e a extrema direita que os sustenta por meio das mídias sociais, do que pela própria regulação, que, pela complexidade tecnológica e pela alta concentração de serviços digitais nas mãos de empresas norte-americanas, está profundamente comprometida no contexto atual, não só no Brasil, mas também no mundo.
Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer