top of page
1e9c13_a8a182fe303c43e98ca5270110ea0ff0_mv2.gif

Coluna Alerta Digital - 07/03/2024



A Liberdade de Expressão e a Moderação de Conteúdo pelas Redes Sociais Online perante a Suprema Corte


Imagine um grande espaço comunitário onde pessoas de diferentes lugares vêm para postar suas opiniões, compartilhar notícias, divulgar eventos, ou mesmo expressar suas artes e pensamentos em um quadro de avisos que todos podem ver. Para ter acesso ao local, é preciso um breve cadastro e assinatura de documento no qual o interessado manifesta o compromisso com algumas regras gerais de conduta e onde reconhece que os organizadores do local ficam responsáveis por monitorar o que é postado, a fim de garantir que as regras sejam seguidas, o que inclui a remoção de determinados avisos inapropriados ou que violem as diretrizes da comunidade.

Nesse centro comunitário, as pessoas podem formar grupos abertos ou fechados para discutir interesses específicos, apoiar causas, ou organizar eventos. Os organizadores da comunidade não são responsáveis por tudo o que é dito ou compartilhado no centro, mas atuam quando necessário para manter um ambiente seguro e acolhedor, baseando-se nas regras estabelecidas.

Essa analogia ajuda a entender como as redes sociais online funcionam como plataformas de hospedagem e distribuição de conteúdo gerado pelos usuários, e não como criadores desse conteúdo. Da mesma forma que os organizadores do centro comunitário hipotético, as redes sociais online têm políticas e mecanismos para moderar o conteúdo e garantir que a plataforma permaneça um espaço de expressão livre, mas respeitável.

As políticas de moderação de conteúdo das redes sociais são diretrizes e regras estabelecidas pelas plataformas online para regular o tipo de conteúdo que os usuários podem publicar. Visam evitar a disseminação de discursos de ódio, desinformação, conteúdo ilegal e abusivo, protegendo a comunidade online e mantendo um ambiente seguro e respeitoso. Essas políticas determinam o que é permitido ou proibido na plataforma e são aplicadas por meio de revisão humana ou automatizada para remover ou restringir o acesso a conteúdo que as violam.

Alguns críticos, porém, entendem que essa regulação poderia violar o direito fundamental que garante às pessoas a liberdade de expressar suas opiniões e ideias sem medo de censura ou represália. A liberdade de expressão enquanto direito fundamental tem origem em conceitos filosóficos e políticos muito antigos, formalmente reconhecidos em documentos de relevância internacional como a Declaração de Direitos do Homem e do Cidadão de 1789, na França, e a Primeira Emenda à Constituição dos Estados Unidos de 1791. Trata-se, sem dúvidas, de uma liberdade essencial para a democracia, ao permitir o debate público, a crítica ao governo e a troca de ideias na sociedade.

Todavia, assim como nem mesmo o direito à vida é absoluto (no Brasil, a pena de morte é admitida no art. 5º, XLVII, em caso de guerra declarada), também a liberdade de expressão precisa ser relativizada a fim de que possa conviver em harmonia com outros direitos de igual ou até superior valor. Nesse sentido, importa identificar e diferenciar as hipóteses fáticas de abuso do direito à liberdade de expressão, a fim de que outros direitos não restem por aquele vilipendiados.

Isso envolve avaliar se as manifestações violam direitos fundamentais, como ao incitar violência, discriminação, discursos de ódio, ou espalhar desinformação que possa causar danos reais. As leis e normas sociais variam entre países e contextos, mas geralmente consideram abusiva a expressão que excede os limites do debate público saudável e atenta contra a dignidade, segurança e direitos de outras pessoas. O meu direito termina quando inicia o do outro continua sendo uma regra de ouro da boa convivência em sociedade.

Nos EUA, o Estado do Texas adotou legislação que proíbe plataformas de remover conteúdo com base no ponto de vista da política do usuário ou da publicação. Da mesma forma, na Flórida, há lei que impede as redes sociais de banirem permanentemente candidatos a cargos políticos estaduais de suas plataformas e impõe multas às empresas que optarem por remover conteúdo de organizações de mídia tradicionais. Tratam-se de respostas às preocupações sobre a percepção de viés e censura nas plataformas de redes sociais, especialmente contra vozes conservadoras.

Tais legislações buscam proteger a liberdade de expressão online, evitando que as plataformas usem seu poder de moderação de conteúdo para influenciar o debate público e político de maneira que consideram injusta ou parcial. São medidas que objetivam assegurar que todos os pontos de vista, especialmente os políticos, tenham espaço nas discussões digitais, reduzindo a capacidade das redes sociais de excluir conteúdo ou banir indivíduos com base em suas opiniões políticas.

A questão é que nos EUA tem vigência a Seção 230 do Communications Decency Act (CDA) de 1996, que oferece imunidade às plataformas online, como redes sociais e fóruns, de serem responsabilizadas por conteúdo de terceiros publicados em seus sites. Essencialmente, esta seção protege empresas da internet contra ações judiciais que poderiam ser movidas com base no conteúdo gerado pelos usuários. Ela permite que essas plataformas hospedem, removam ou moderem conteúdo sem serem tratadas como editoras ou difusoras desse conteúdo, incentivando assim a liberdade de expressão online e o desenvolvimento da internet ao reduzir o risco de litígios.

Apesar disso, tem havido debates sobre como essa proteção impacta a responsabilidade das plataformas em lidar com desinformação, discursos de ódio e conteúdo ilegal online, com algumas vozes pedindo reformas para atualizar a legislação às realidades da internet contemporânea. Tudo isso levou a discussão sobre a liberdade de expressão à Suprema Corte dos EUA, em especial no que concerne ao direito de estabelecer políticas de moderação de conteúdo, como expressão do poder de autorregulação das plataformas de redes sociais.

No Brasil, a legislação que mais se aproxima da Seção 230 do Communications Decency Act dos EUA é o Marco Civil da Internet (Lei Nº 12.965, de 23 de abril de 2014), lei que estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil, incluindo disposições sobre a responsabilidade dos provedores de aplicações de internet (como redes sociais e outras plataformas online) pelo conteúdo gerado por terceiros.

De maneira específica, o Artigo 19 do Marco Civil da Internet define que os provedores de aplicações de internet só podem ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomarem as medidas para tornar indisponível o conteúdo apontado como infringente. Isso cria um mecanismo de “notificação e retirada”, protegendo as plataformas contra a responsabilidade automática pelo conteúdo postado por seus usuários, desde que cumpram com as determinações judiciais. Essa legislação busca equilibrar a liberdade de expressão na internet com a proteção contra abusos, sem impor aos provedores de aplicações a obrigação de monitorar preventivamente o conteúdo que transmitem ou armazenam, ao mesmo tempo que estabelece um sistema para a remoção de conteúdos ilícitos ou prejudiciais com base em decisões judiciais.

Todavia, nem sempre as políticas de moderação de conteúdo adotadas pelas plataformas são condizentes com as diferentes legislações e culturas existentes ao redor do mundo. Apesar da infraestrutura dos provedores de aplicações de Internet poder estar baseada em determinados países, o que realmente importa é onde o conteúdo gerado está a produzir impacto econômico, social, jurídico, muitas vezes de consequências nefastas ou com sérias implicações para o desenvolvimento saudável e democrático da nação.

Preocupações como essas levaram o então Ministro da Justiça, Flávio Dino, a realizar reunião com representantes das principais plataformas, entre elas o antigo Twitter (atual X), Meta, TikTok e Google, em maio de 2023. Durante o evento, destacou que a autorregulação das empresas tem um limite e que este não se sobrepõe à legislação do país. Dino criticou especialmente a postura do Twitter de se basear apenas nos “termos de uso” para decidir sobre a remoção de conteúdos, argumentando pela necessidade de alinhamento com a legislação brasileira, de modo que a liberdade de expressão não pode ser usada, por exemplo, para justificar a disseminação de conteúdo violento ou extremista.

Trata-se de posição que reflete a determinação do atual governo brasileiro em assegurar que as redes sociais atuem dentro dos limites estabelecidos pela legislação do país, ressaltando a prioridade dada à segurança pública e ao combate à disseminação de conteúdos prejudiciais online, a qual poderá até servir de inspiração para a decisão que a Suprema Corte dos EUA precisará adotar nos próximos meses ou anos.

Em um mundo globalizado e interconectado, uma verdadeira sociedade em rede, na feliz expressão de Manuel Castells, que precisa urgentemente compreender o caldo intercultural em que se acha e evitar a todo custo atitudes extremistas que tende a nos afastar do progresso, talvez seja chegada a hora de revisitarmos o conceito de Caminho do Meio, ensinado há milênios pelo sábio Siddhartha Gautama, como uma serena e cada vez mais necessária via de moderação.



Comments


bottom of page