Os editores tomam as rédeas dos algoritmos

Em 2016, a disseminação de propaganda política disfarçada de notícias trouxe maior turbulência aos gigantes da tecnologia. Google e Facebook preparam-se para "limpar a casa"e recorrer mais a mãos humanas para regular a internet.

Foto
Facebook vai colaborar com um consórcio internacional de fact-checkers para analisar tentativas de desinformação Justin Sullivan/AFP

Colocamos as nossas vidas nas mãos de automatismos. Por exemplo, quando cruzamos oceanos a altitudes de 10.000 metros num avião em piloto automático. E tudo corre bem até ao momento em que deixa de correr. Em caso de emergência, é um piloto experiente  – de carne e osso – que toma os comandos do avião.

Até este ano, as partes mais importantes da nossa vida virtual funcionaram quase sempre em piloto automático. Os motores de busca, e em especial o Google, indexaram sozinhos a internet e aprenderam a antecipar as nossas dúvidas através da análise das nossas perguntas, perfis e dados. As redes sociais, e aqui sobretudo o Facebook, também aprenderam a servir-nos os conteúdos que presumivelmente mais nos interessam. Tudo se processa graças a algoritmos sofisticados e secretos que dispensaram a intervenção humana.

Não é que tudo tenha corrido sempre bem. Não é de hoje a inquietação sobre a segurança e mercantilização dos dados pessoais, a permissividade em relação a conteúdos extremistas ou ao assédio virtual. Mas 2016 foi o ano em que os gigantes da internet enfrentaram maior turbulência, em que as limitações e vulnerabilidades da web algorítmica se tornaram em arma geopolítica. Por isso, e em 2017, Facebook e Google vão desligar cada vez mais o piloto automático.

Falamos, sobretudo, do problema da disseminação de propaganda política disfarçada de notícias, mas deixemos por momentos o debate sobre o seu papel na surpreendente vitória de Donald Trump nas presidenciais norte-americanas. A novidade aqui, que poderá transformar-se numa tendência para os próximos tempos, é que a resposta para este e outros tipos de abuso estará cada vez mais nas mãos de equipas de editores.

Olhemos para o plano de ataque do Facebook para as notícias falsas. A 15 de Dezembro, a rede social fundada por Mark Zuckerberg anunciou que irá colaborar com um consórcio internacional de fact-checkers (ou verificadores de factos) para analisar tentativas de desinformação. Será uma empreitada exclusivamente humana? Não. As equipas de editores vão receber alertas automáticos que sinalizam publicações suspeitas – por exemplo, um artigo muito partilhado por pessoas que nem chegaram a ler o conteúdo. Mas é a esta rede, que inclui jornalistas de sites como o Politifact ou a ABC News, que caberá a decisão final de dizer o que é falso ou verdadeiro.

Esta abordagem nasce em parte das lições retiradas de outro duelo mediático entre editores e algoritmos. No início do ano, o Facebook foi acusado de parcialidade na promoção de tópicos em destaque (trending topics, em língua inglesa), um conjunto de links que reencaminham os utilizadores para partilhas relacionadas com os assuntos quentes do momento. Esta tarefa estava entregue a equipas de editores que, supostamente, foram despedidos depois da rede de Zuckerberg ter sido criticada nos Estados Unidos pelo Partido Republicano, que se queixou – e, aparentemente, com razão – da censura de temas e notícias favoráveis aos conservadores. A selecção dos tópicos passou então a ser feita de forma predominantemente automática, mas a curadoria algorítmica cedo revelou as suas limitações: em Agosto, o Facebook voltou a ser alvo de críticas quando notícias falsas começaram a aparecer destacadas nos trending topics. Entretanto, e ao contrário das informações inicialmente avançadas, a rede mantém equipas de editores à espera de uma reformulação do projecto. Se o Facebook se continuar a transformar no maior portal de notícias do mundo, boa parte dos seus editores serão pessoas e não algoritmos.

Podemos esperar um processo semelhante no Google. Este mês, o motor de busca voltou a estar debaixo de fogo devido à presença de sugestões automáticas de pesquisas extremistas – escrever “os judeus são” ou “os muçulmanos são” gera sugestões como “os judeus são diabólicos”, que nos conduzem a listas de sites racistas. O problema, explicava ao Observer de 4 de Dezembro um conjunto de académicos internacionais, é causado pela acção concertada de grupos extremistas que conseguiram manipular o motor de busca. Mais uma vez, o fenómeno não é novo, mas a resposta voltou a passar pela intervenção humana, com o Google a remover manualmente várias sugestões de pesquisas racistas e sexistas no dia seguinte à publicação do artigo do jornal britânico.

No Twitter, o combate ao abuso é um caso de vida ou morte. Com a empresa em grave situação financeira, potenciais compradores como a Disney e a Salesforce ter-se-ão afastado da rede social em Outubro devido aos recorrentes problemas de assédio virtual e de disseminação de conteúdos extremistas. No mês seguinte, o Twitter anunciou novas ferramentas para reportar abusos e a formação intensiva de equipas para responder de forma mais rápida e eficaz às denúncias – algo que não tem acontecido no passado. No Yahoo!, uma situação semelhante: para além dos graves problemas de segurança que ameaçam descarrilar a compra pela Verizon, o portal tem tentado limpar a rede social Tumblr de conteúdos pornográficos, depois de inicialmente ter prometido que manteria uma política liberal em relação ao assunto.

Por pressões políticas ou financeiras, a internet vai limpar a casa em 2017. E a vassoura estará em mãos humanas.  

Sugerir correcção
Comentar