quarta-feira, 8 de março de 2023

 

O julgamento que pode mudar a maneira como vemos as redes sociais


Era uma vez num país muito, muito distante uma lei que decidiu que o mundo da internet seria o terreno das coisas e pessoas livres. Essa lei era o Communications Decency Act e o marco legal ficou conhecido como Section 230, uma normativa que determinou, em 1996, que as plataformas de redes sociais não eram responsáveis legalmente pelo conteúdo criado e compartilhado pelos seus usuários. Diferenciava-as, assim, de veículos de mídia e jornais, por exemplo, e as aproximavam de empresas de telefonia, que apenas oferecem infraestrutura para comunicação. 

Foi essa lei, aprovada há mais de duas décadas, que permitiu que tivéssemos a ampla garantia de liberdade na criação de conteúdos por pessoas de todo o mundo, que embasa grande parte do que conhecemos hoje como a internet. E foi ela também que permitiu que chegássemos ao caos que temos visto nas redes sociais, onde algoritmos obscuros ajudam a propagar mentiras e chamados a um golpe de Estado – são só dois exemplos – sem que ninguém seja responsabilizado por isso. 

Agora, a Suprema Corte americana vai voltar a julgar a Seção 230, julgamento que pode ter enormes consequências para como nossa lei enquadra as redes sociais. Vale a pena entender essa lei. 

A Seção 230 determinou que provedores de serviços de internet, como redes sociais, mas também sites de notícias com seções de comentários não podem ser responsabilizados pelos conteúdos postados pelos usuários, incluindo aqueles que forem ilegais. Para que sejam responsabilizados por algum conteúdo, é preciso haver uma ordem legal de remoção e a plataforma ter se negado a cumprir tal ordem. Além disso, ela concede imunidade para que as plataformas façam a moderação de conteúdos gerados pelos usuários quando considerem, “de boa-fé”, que há conteúdo “obsceno, lascivo, imundo, excessivamente violento, assediante ou de outra forma censurável”.

Ou seja, por um lado desobrigou legalmente as plataformas de retirarem conteúdos criados por usuários, mas por outro, permitiu que elas façam moderação quando acharem necessário, liberando-as para criar e aplicar as regras de moderação que acharem que vale, “de boa fé”.  

A lógica por trás de Seção 230 era diferenciar entre provedores de internet e um meio de comunicação comum: no caso desses, tudo o que é publicado é de responsabilidade do meio, que realiza uma curadoria, verificação e edição de tudo o que publica, sob pena de responsabilização legal. Por outro lado, como meras plataformas de conteúdos produzidos pelo público, empresas americanas de internet reclamavam para si outro tipo de status, alegando serem apenas um “pipeline” para a distribuição de conteúdo – e deixando claro, nas entrelinhas, que se houvesse moderação de conteúdo, boa parte da informação acabaria sendo censurada. “Acabar com a Seção 230 resultará em uma eliminação maior do discurso online”, chegou a advertir Jack Dorsey, fundador e CEO do Twitter durante uma audiência no Congresso americano em 2019, antes de vender sua plataforma por bilhões para o ricaço sem noção Elon Musk demonstrar que nada o impede de mudar qualquer regra que lhe der na telha em um dos espaços mais usados por políticos para se comunicar com seus constituintes. 

Claro que a Seção 230 não protege só as grandes corporações, mas sites menores e usuários, fóruns anônimos, blogueiros e páginas de bairro. Protege ainda plataformas que decidem tirar do ar páginas de políticos que incitam Golpe de Estado – como foi o caso de Trump. Se ela não existisse, o ex-presidente americano poderia exigir a volta dos seus canais dos tribunais. 

 

Mas ela também permite a privatização da moderação, sem um mínimo de regras comuns às plataformas, sem exigência de transparência e sem monitoramento algum.     
 
   

Ora, em 1996, havia motivos para esperança sobre “boa fé”: o mundo começava a entender as potencialidades da internet como o maior receptáculo de conhecimento humano jamais construído, que permitiria que jovens em Dubai se comunicassem, instantaneamente, com um coletivo aqui da Rocinha, por exemplo. Os valores éticos que embasavam a primeira geração da internet eram o compartilhamento, a construção conjunta para resolver problemas, o copyleft, que permitia a cópia e distribuição de conteúdo gratuitamente, a generosidade e o bem comum.    

Aqui no Brasil, a bonita justificativa para a Seção 230 aportou durante a discussão do Marco Civil da Internet, de 2014, que trouxe um marco civilizatório importante para o uso da internet entre os brasileiros, garantindo, em especial a liberdade de expressão. Diz o artigo 19 dessa lei que o provedor de aplicações de internet somente será responsabilizado se houver uma ordem judicial anterior – repetindo o espírito da norma americana. O artigo foi aprovado “com o intuito de assegurar a liberdade de expressão e impedir a censura”, nas palavras do próprio Código.

Agora, fast forward dez anos para frente, e o que temos é a “plataformização” da internet, um território controlado por um oligopólio de empresas, a maior parte delas americanas, que conseguiram em tempo recorde absorver mais de metade da verba publicitária mundial e obter lucros inigualáveis ao explorar, justamente, a criação de conteúdo e dados produzidos por bilhões de pessoas, impulsionando, sempre, aquilo que traz emoção, revolta, ódio e polêmica. Bem-vindo a 2023, quando as duas maiores democracias do continente estiveram perto de serem destroçadas por turbas raivosas alimentadas por mentiras espalhadas via redes sociais. 

É nesse contexto que a Suprema Corte americana retomará o julgamento da Seção 230, sob a luz de uma questão que muito move aquela pobre sociedade rica: o terrorismo. Nesses dois casos, as redes sociais estão sob escrutínio a respeito da Seção 230. O caso Twitter v. Taamneh trata de um tiroteio terrorista em 2017 em uma boate de Istambul, que deixou 39 mortos. A família de uma das vítimas alega que as redes sociais (Google, Twitter e Facebook) desempenharam um papel de apoio ao terrorismo ao não remover e ganhar dinheiro com materiais do Estado Islâmico. Já no caso Gonzalez v. Google, o foco é outro atentado, esse ocorrido em novembro de 2015, onde atiradores do ISIS abriram fogo em um restaurante em Paris, matando 130 pessoas – entre elas Nohemi Gonzalez, uma estudante de 23 anos. A família alega que, ao recomendar vídeos relacionados ao Estado Islâmico, a Plataforma ajuda a radicalizar jovens e portanto funciona como assistente ao terrorismo. 

Nesse caso, mais que no primeiro, quem está em julgamento é o algoritmo que decide o que deve ser recomendado. Ele deve estar protegido pelo Section 230

Durante a primeira audiência, os juízes debateram se as redes sociais deveriam ser comparadas a bancos, restaurantes que servem terroristas, ou pessoas que entregam armas a criminosos.

O advogado do Twitter, Seth Waxman, argumentou que a empresa foi “explorada por terroristas”.

A ACLU, associação de advogados que defende a liberdade de expressão, fez uma defesa retumbante da Seção 230 no seu site:  

“A Seção 230 permitiu que a expressão pública na internet florescesse. Criou espaço para os movimentos sociais; plataformas habilitadas para acolher o discurso de ativistas e organizadores; e permitiu que usuários e criadores de conteúdo em sites como Instagram, TikTok e Twitch alcançassem um público e ganhassem a vida. Sem ela, a internet será um lugar muito menos hospitaleiro para a criatividade humana, educação, política e colaboração. Se perdermos a Seção 230, perderemos a internet como a conhecemos”

A decisão deve vir até o fim de junho. Para analistas americanos, a Corte deve pedir ao Congresso que esclareça melhor as responsabilidades da Section 230. 

Por aqui, o artigo 19 do Marco Civil da Internet também está sob escrutínio, em razão da tentativa de golpe de 8 de Janeiro e do debate acerca do PL das Fake News, sobre o qual tratei na última newsletter. 

Além disso, está para ser julgado no STF um Recurso Extraordinário que insta a corte a decidir quanto à constitucionalidade do artigo 19 a necessidade de ordem judicial prévia para a responsabilização de provedores de internet, websites e gestores de aplicativos de redes sociais “por danos decorrentes de atos ilícitos praticados por terceiros”. A última movimentação, de 3 de março, mostra que também nesse tema o STF está se mexendo: O ministro Dias Toffoli, relator, marcou uma audiência pública híbrida “para ouvir o depoimento de autoridades e expertos” para o próximo dia 28. 

O debate está se ampliando, como deve ser, e embora seja bastante espinhoso, é preciso não fugir dele. Tenho lido contribuições importantes para avançarmos no tema. Muitos pesquisadores, como Clara Keller, Laura Mendes e Yasmin Curzi, acreditam que, como a nova realidade econômica da internet, nossa lei ficou ultrapassada. 

“Já naquele momento, o marco não dava conta de todos os desafios que se apresentavam. Hoje, com um mercado digital extremamente concentrado e com muitos aspectos da vida mediados por algoritmos e plataformas, a insuficiência é ainda mais evidente”, escreveram as autoras em um artigo recente na Ilustríssima. Elas alertam sobre a necessidade de “um regime adequado de responsabilização das plataformas, tratem os riscos decorrentes de seus modelos de negócios estrutural e sistemicamente”.

Entre as 8 medidas apresentadas por elas, estão obrigações de transparência, como a criação de um órgão regulador, e a criação de protocolos de crise – que deveriam ser acionados durante uma pandemia ou eleições, por exemplo. “A circulação de conteúdo ilegal não pode agravar situações de crises e de conflitos, ampliando danos à democracia e aos direitos humanos. São necessários instrumentos, como protocolos de crise, que permitam que as empresas e os governos cooperem na mitigação dos impactos desses conteúdos nesses contextos”.

Um bom começo seria os meios de comunicação entrarem no debate mais profundamente – e o Congresso tomar seu tempo para votar o PL da Fake News, permitindo que esse debate tão importante seja abraçado pela sociedade, assim como foi na época do Marco Civil. Éramos jovens e idealistas, eu me lembro muito bem.  

 



Natalia Viana
Diretora Executiva da Agência Pública

Nenhum comentário:

Postar um comentário