5 min de leitura

A IA generativa irá afetar as eleições no mundo em 2024?

Em 2024, veremos o uso da IA como uma arma contra políticos em todo o mundo; para contra-atacar, será preciso investir em leis e educação

Rodrigo Helcer
18 de junho de 2024
A IA generativa irá afetar as eleições no mundo em 2024?
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

Ainda refletindo sobre alguns conteúdos a que tive a oportunidade de ter acesso em Austin, no Texas, durante o SXSW este ano, quero dividir com vocês insights de duas palestras muito interessantes sobre deepfakes e o impacto das novas tecnologias, como a inteligência artificial (IA), nas eleições.

Uma delas foi a “Eleições na era da IA: impactos das novas tecnologias na democracia”, com Joan Donovan, da Universidade de Boston, nos EUA; Tiana Epps-Johnson, do Centro de Tecnologia e Vida Cívica; Lindsay Gorman, da Aliança do Fundo Marshall Alemão para Garantir a Democracia; e Jena Griswold, do Departamento de Estado do Colorado. A segunda palestra que vou comentar aconteceu no estande da DARPA (Defense Advanced Research Projects Agency), e foi sobre “Real ou não: defendendo a autenticidade em um mundo digital”. Um verdadeiro achado!

O fato é que em 2024 o mundo passará por um ciclo eleitoral em uma série de países. É o momento em que políticos competem por atenção e também o momento onde veremos a “Weaponization of AI”, ou seja, o armamento de AI em eleições. Com o avanço da inteligência artificial generativa e seu acesso cada vez mais fácil e com custos decrescentes, nos encontramos em um momento de democratização da desinformação.

Qual é o novo campo de batalha?

Lindsay Gorman chamou esse cenário de “o novo campo de batalha”, no campo da informação, nitidamente favorável para países rivais autocráticos. A melhor forma de desestabilizar a democracia não é por uma invasão, mas por seguidos ataques de desinformação.

O mundo está vulnerável. Saímos de uma fase de falsificações baratas, geralmente identificáveis facilmente por dedos errados e orelhas assimétricas, para deepfakes sofisticados e carentes de tecnologias para uma rápida identificação. Saímos de imagens manipuladas para vídeos manipulados.

⁠Jena Griswold disse que já recebeu mais de 50 ameaças de morte e falou com lágrimas nos olhos o quão difícil é combater essa agenda! Já Joan Donovan trouxe três pontos para discutirmos a desinformação nas redes sociais: ferramentas, táticas e territórios. E provocou dizendo: “Mas quem deve se tornar a polícia da informação? Estaremos na próxima fase da discussão das fronteiras informacionais”.

É clara a explosão de desinformação com o advento de inteligência artificial generativa, como também é clara a permanência de técnicas pré-IA, como a mudança de contexto, como numa foto de 10 anos atrás e que falam que foi ontem.

A DARPA apresentou no SXSW modelos biométricos para identificar movimentos da face, lábios, cabeça e com isso discernir o que é fake ou não. Segundo eles, as deepfakes são inicialmente trocas faciais de redes neurais.

Um vídeo falso retratando o presidente ucraniano Zelensky teve um avanço ao filmar um ator feito especificamente para uma cena. A suspeita começou por uma pessoa no time que percebeu que Zelensky usava uma camisa suspeita e que as orelhas estavam estranhas.

Os maus agentes estão sofisticados não só nas técnicas de produção de conteúdo como também em motores de engajamento e escalabilidade dos conteúdos em redes sociais e na dark web. É clara a explosão de desinformação com o advento de inteligência artificial generativa, como também é clara a permanência de técnicas pré-IA, como a mudança de contexto, como numa foto de 10 anos atrás e que falam que foi ontem.

Como contra-atacar

Os pesquisadores estão verdadeiramente preocupados e as ameaças vão além das eleições. Estão em golpes, em escolas para fazer bullying e outros. E o contra-ataque precisa ter novas defesas.

Claramente precisaremos de leis para coibir e criminalizar esse tipo de mal uso da IA. Assim como um antivírus, veremos o surgimento de apps voltados para a proteção reputacional, para identificar desde a criação de conteúdos maliciosos até a detecção rápida de ameaças para rápido controle de dano.

Isso só reforça que a educação é um importante remédio, mas também escassa e carente de investimentos em nosso país. O uso das redes sociais para eleições começou com Obama e o “yes we can”.

Claramente precisaremos de leis para coibir e criminalizar esse tipo de mal uso da IA. Assim como um antivírus, veremos o surgimento de apps voltados a proteção reputacional.

O mundo aprendeu com esse caso de sucesso tanto para o bem como para o mal. Nasceu daí a Cambridge Analítica e todo o escândalo como conhecemos, com o protagonismo de Steve Bannon.

Depois, veio a eleição de Donald Trump, com a polêmica da interferência russa (IRA), o leak da WikiLeaks do caso Hillary Clinton (motivo principal da perseguição de Assange), a polêmica do Twitter Leaks e a interferência das agências de inteligência no Twitter.

A importância da educação contra a desinformação

Agora, veremos o novo capítulo desta “série”, com a IA como protagonista e pelo que alguns especialistas dizem, será um enredo pesado, com ingredientes de “filme de ação, terror, conspiração, ficção e casos policiais”.

Sou um otimista sobre os benefícios da IA, mas realista no segundo gume dessa nova faca. Há riscos reais e um enorme vale de prejuízos que iremos atravessar nas dimensões públicas, privadas e pessoais. A proteção para essa travessia está, entre alguns ingredientes gerais, na educação. A “AI literacy” (“letramento em IA”), como muitos falam ou “upskilling” (qualificação), como outros chamam.

Nesse tema de desinformação, há também um chamado por mais letramento. A imprensa tem um papel importante nessa educação, assim como a comunidade de AI e tecnologia.

A proteção para essa travessia está, entre alguns ingredientes gerais, na educação. A “AI literacy” (“letramento em IA”), como muitos falam ou “upskilling” (qualificação), como outros chamam.

Precisamos de educação e conscientização e estamos falando pouco disso a meu ver. Compartilhamos os casos de abuso, mas pouco sobre como combater, o que aprender, no que investir para nos prevenirmos como pais e corporações.

Já sabemos do poder das redes sociais para interferir em nossos relacionamentos pessoais, profissionais e políticos. Não somos mais estúpidos nesse assunto, mas agora temos um tema novo e sério na mesa. Há um elefante na sala e precisamos nos mexer e contribuir para este novo problema.

Rodrigo Helcer
Rodrigo Helcer é cofundador da STILINGUE by Blip, empresa brasileira que desde 2014 empreende na frente de inteligência artificial aplicada ao monitoramento de redes sociais. Comprada em 2022 pela Blip, Rodrigo segue como acionista e advisor na empresa. Formado em Administração pela FEA-USP, o executivo atua no conselho consultivo e liderança de comitês de inteligência artificial. https://www.linkedin.com/in/rodrigohelcer/.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui