(Elon Musk, gostaria de lembrar, mudou o algoritmo para mostrar mais dos seus posts para os seguidores do Twitter).
Para dar uma dimensão de grandeza: até alguns anos atrás, o Facebook era a rede que mais trazia leitores para todos os sites de jornalismo. Era como se fosse a capa do jornal, o local onde todo mundo recebia a informação sobre o que importava. Quando lançamos o Truco, o primeiro projeto de fact-checking independente do Brasil, em 2014, alcançamos quase 80 mil interações pelo Facebook em um só dia – pessoas compartilhando, comentando ou dando “like” na página. Há duas semanas, a reportagem do Estadão sobre as joias que Bolsonaro tentou trazer ilegalmente para o país, no valor de 16,5 milhões, teve cerca de 7 mil interações na plataforma.
Isso é fruto da decisão do Facebook de reduzir o papel do jornalismo na plataforma. Hoje, a maior rede social do Brasil leva pouca gente para as páginas de jornalismo.
Há ainda outro espaço que funciona como funcionavam antigamente as capas dos jornais, um grande mural que chama a atenção do público sobre as histórias que são importantes num determinado dia. São as ferramentas de busca. O Google.
A partir da reorganização do conhecimento humano pelo Google, bilhões e bilhões de páginas disponíveis a quem quiser buscar uma palavra, surgiu o ominoso termo “SEO”, Search Engine Optimization (otimização para ferramentas de busca). Trata-se de uma série de regrinhas que ninguém sabe muito bem como funcionam, pois são fluidas, para ajudar o seu conteúdo a aparecer mais em cima na lista do Google. Nesse caso, os robozinhos rejeitam, por exemplo, títulos mais poéticos, como “Na hora de fazer não gritou”, uma das reportagens históricas da Pública sobre violência obstétrica, e exigem que você coloque títulos objetivos e que tragam palavras que estão já na mente das pessoas. Existem várias ferramentas que analisam se o seu conteúdo está “apropriado” para aparecer bem na busca do Google. Eles chegam a dizer que os parágrafos estão muito longos, que você deveria colocar intertítulos aqui ou ali, que as frases tinham que ser mais curtas e diretas. Inventam um jeito de escrever que é o dos robôs e não o nosso.
E não seguir essas regras tem consequências graves. Por exemplo: descobrimos, em algum momento da nossa trajetória, que nosso site era penalizado pelo Google porque, como nossas reportagens são republicadas por uma rede de outros sites, gratuitamente e sob licença creative commons, o robozinho achava que nós estávamos copiando o conteúdo de outro lugar. O robozinho não entende a lógica do compartilhamento e da colaboração sobre a qual construímos a Pública ao longo desses 12 anos. E vejam só: se o algoritmo é burro o suficiente para não entender que a reportagem original é da Agência Pública, e portanto nosso link deveria estar lá no topo – bem, a culpa é nossa. O SEO matou a poesia no jornalismo, e não há nenhum remédio a não ser se curvar a ele. No meio disso ficamos nós, jornalistas, que perdemos a tranquilidade de focar apenas na qualidade do produto que a gente entrega. Temos que passar cada vez mais tempo estudando e observando como funciona esse ou aquele algoritmo. Criamos equipes inteiras que trabalham para robôs, que passam seus dias tentando entender por que uma frase funcionou e outra não funcionou para agradar aos robôs que fazem a mediação entre o nosso conteúdo e o público. Eu como diretora executiva, fui virando um pouco escrava dos robôs, dedicando parte das minhas horas a tentar entendê-los, acompanhar cada nova mudança não anunciada, pensar junto com a equipe soluções para a tarefa de levar o nosso jornalismo para mais longe.
Agora, sejamos pragmáticos. Não há caminho de volta. Elencar conteúdos é uma medida essencial se uma plataforma tem que entregar algum cardápio de informações que faça sentido para o usuário. Haverá critérios, haverá penalizações e haverá conteúdos que chamam mais a atenção do que os outros. No final de fevereiro, a ACLU (American Civil Liberties Union) fez uma bonita defesa do rankeamento do Youtube pelos robôs como algo que deve ser protegido pelas leis de liberdade de expressão – falei desse caso na newsletter da semana passada. É interessante, talvez a primeira vez que se busca equivaler a decisão de robôs sobre conteúdo à curadoria humana como protegida pelas leis humanas.
Como bem explicou a professora Letícia Cesarino, a curadoria na internet plataformizada é uma mistura, uma amalgamação entre a vontade dos povos e a vontade das máquinas. Quando você busca no Google, um pouco quem dita o caminho que você vai percorrer é você, e um pouco é o algoritmo, com base no que você já pesquisou, no que outras pessoas parecidas com você pesquisaram, e com base, claro, em quem paga para aparecer de maneira mais proeminente. Existe, sim, possibilidade de mediação que não seja apenas pessoa-robô-capital: uma regulação que obrigue, por exemplo, que uma porcentagem do conteúdo deveria ser de jornalismo de qualidade, ou que determinada porcentagem dos resultados têm que ser nacionais. Isso tudo é possível. Mas a mediação seguirá sendo comandada por robôs. Essa é a realidade do nosso tempo.
E isso vai além da minha nova função, como jornalista-escrava-de-robôs. Os robôs já decidem hoje quem ganha visibilidade e, portanto, capital social e dinheiro. Quem vai ser o novo influenciador que vai ficar rico. Qual será a nova banda que vai explodir com sua música-chiclete. E cada vez mais, qual o político que vai ganhar a eleição e, no meio da enxurrada de informação, permanecer na cabeça e no coração do eleitorado até a próxima eleição. Foram os algoritmos que levaram, no dia Internacional da Mulher, a triste demonstração de transfobia do deputado Nikolas Ferreira (PL-MG) aos assuntos mais comentados. Ele ganhou, os robôs ganharam – os robôs sempre ganham quando há escândalo, pois são oportunistas e dinheiristas, não importa qual escândalo. A nossa humanidade, mais uma vez, perdeu. |
Nenhum comentário:
Postar um comentário