4 min de leitura

Um algoritmo chamou Lula de ladrão?

É preciso entender que opinião não é método científico usada para comprovar hipóteses. A atenção deve estar voltada para as principais vítimas dos algoritmos. A discriminação algorítmica é o real problema estrutural que precisa de respostas

Fabro Steibel
30 de julho de 2024
Um algoritmo chamou Lula de ladrão?
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

A busca no Google pela cerimônia de coroação do Rei Charles III, no Reino Unido, gerou uma anedota curiosa. A denúncia é de que o Google sugeriu a quem buscava pelos termos “Lula coroação” uma sugestão de correção para busca de “Lula corrupção”.

A inferência aqui é de que uma plataforma alterou seu produto para atacar o presidente. Mas a metodologia usada para sustentar essa hipótese se baseia em um fato não-científico, que não devemos usar.

Então, qual o método usado para “provar” que o Google chamou Lula de ladrão? Um print de tela a partir de uma única busca trata-se de uma opinião, não de um fato científico. Mesmo assim, a opinião foi amplificada por influenciadores e jornalistas como fato real. Até o Google respondeu.

Há um ponto de reflexão aqui, que diz respeito ao papel da ciência nos discursos políticos e o perigo do vitimismo seletivo sublimar a visibilidade de vítimas reais.

Primeiro, vamos entender a ciência por trás do fato. Toda hipótese científica deve ser comprovada por um método, e a hipótese deve sobreviver à contraprova. O método usado aqui não é científico, e há potencial contraprova feita, como buscas semelhantes pelos termos Obama e coroação, ou Bolsonaro e coroação, que deram semelhante resultado.

Segundo, vamos entender o que possivelmente aconteceu. Algoritmos são feitos para satisfazer o usuário. Se no Google a ferramenta é desenhada para te satisfazer na primeira página, ela vai te sugerir erros de digitação para maximizar isso.

Terceiro, vamos lembrar que o algoritmo aprende e se “conserta”. “Coroação” é um termo que raramente aparece em buscas. Já “corrupção” é um trending topic histórico. Sugerir uma troca de um termo pelo outro é esperável. E se ninguém clicar ali, o que acontece? O algoritmo aprende que a associação é ruim e para de usar.

Vamos endereçar então o contexto: a denúncia é de que ferramentas de busca manipulam a opinião pública. Sim, o clima está tenso. Com a votação do PL 2630, a lei das fake news, as big techs foram aos jornais, e o judiciário e o Ministério Público Federal estão investigando se ao fazerem isso houve mais do que opinião, mas também manipulação de seus produtos.

O contexto merece toda atenção. Mas não podemos usar factóides – típicos das campanhas profissionais de desinformação – para embasar conversas reais. Factóides é o que usam os terraplanistas. Ao fazer um simulacro do método “teste você mesmo” cria-se uma hipótese, que se generaliza, mas a contraprova é negada. Torna-se crença, que coloca a Terra no centro do universo.

Por fim, vamos falar das vítimas reais. A discriminação algorítmica é real, e muitas das causas são conhecidas: fonte de dados limitadas, baixa diversidade nas equipes, dentre muitos outros problemas estruturais. Os impactos são reais. Casos para lembrar são as denúncia de buscas por família que favorecem casais cis, chefes homens, sem falar nos resultados que revoltam (como no caso das imagens orangotango). Há muita pesquisa nacional sobre o tema, inclusive.

A discriminação algorítmica é um problema estrutural que precisa de respostas. Mas as respostas ao problema têm que ser científicas, sobre o risco de deixar a sociedade pior do que está.

Chris Rock usou o argumento de indignação seletiva para responder ao tapa que levou de Will Smith na entrega do Oscar em 2022. O argumento de Rock é de que existem vítimas reais de racismo e violência e a exploração de vitimismo por atenção deixa vítimas reais com baixa visibilidade.

Mas, e se você compartilhou a “”notícia”” de que o Google chamou Lula de ladrão? Não precisa apagar, apenas reflita. Saiba que não é um fato científico circulado em um ambiente de prolífera desinformação profissional.

E se você quiser falar sobre discriminação de algoritmo, esse é o momento. Existem obras boas, vítimas reais (e com pouca voz). Podemos e devemos falar de algoritmos e plataformas, e de regulação. O cuidado é apenas para se basear em ciência, e não em opiniões. “

Fabro Steibel
Diretor-executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), Fabro Steibel é membro do Conselho Global do Fórum Econômico Mundial, pesquisador independente da Open Government Partnership, fellow da Organização dos Estados Americanos (OEA) para governos abertos, professor da inovação da ESPM e membro do conselho editorial da MIT Sloan Review Brasil.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui