Mais sobre o colunista

5 min de leitura

A IA generativa irá afetar as eleições no mundo em 2024?

Em 2024, veremos o uso da IA como uma arma contra políticos em todo o mundo; para contra-atacar, será preciso investir em leis e educação

Rodrigo Helcer
18 de junho de 2024
A IA generativa irá afetar as eleições no mundo em 2024? Imagem se não é conteúdo que normalmente tem um PDF
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

Ainda refletindo sobre alguns conteúdos a que tive a oportunidade de ter acesso em Austin, no Texas, durante o SXSW este ano, quero dividir com vocês insights de duas palestras muito interessantes sobre deepfakes e o impacto das novas tecnologias, como a inteligência artificial (IA), nas eleições.

Uma delas foi a “Eleições na era da IA: impactos das novas tecnologias na democracia”, com Joan Donovan, da Universidade de Boston, nos EUA; Tiana Epps-Johnson, do Centro de Tecnologia e Vida Cívica; Lindsay Gorman, da Aliança do Fundo Marshall Alemão para Garantir a Democracia; e Jena Griswold, do Departamento de Estado do Colorado. A segunda palestra que vou comentar aconteceu no estande da DARPA (Defense Advanced Research Projects Agency), e foi sobre “Real ou não: defendendo a autenticidade em um mundo digital”. Um verdadeiro achado!

O fato é que em 2024 o mundo passará por um ciclo eleitoral em uma série de países. É o momento em que políticos competem por atenção e também o momento onde veremos a “Weaponization of AI”, ou seja, o armamento de AI em eleições. Com o avanço da inteligência artificial generativa e seu acesso cada vez mais fácil e com custos decrescentes, nos encontramos em um momento de democratização da desinformação.

Qual é o novo campo de batalha?

Lindsay Gorman chamou esse cenário de “o novo campo de batalha”, no campo da informação, nitidamente favorável para países rivais autocráticos. A melhor forma de desestabilizar a democracia não é por uma invasão, mas por seguidos ataques de desinformação.

O mundo está vulnerável. Saímos de uma fase de falsificações baratas, geralmente identificáveis facilmente por dedos errados e orelhas assimétricas, para deepfakes sofisticados e carentes de tecnologias para uma rápida identificação. Saímos de imagens manipuladas para vídeos manipulados.

⁠Jena Griswold disse que já recebeu mais de 50 ameaças de morte e falou com lágrimas nos olhos o quão difícil é combater essa agenda! Já Joan Donovan trouxe três pontos para discutirmos a desinformação nas redes sociais: ferramentas, táticas e territórios. E provocou dizendo: “Mas quem deve se tornar a polícia da informação? Estaremos na próxima fase da discussão das fronteiras informacionais”.

É clara a explosão de desinformação com o advento de inteligência artificial generativa, como também é clara a permanência de técnicas pré-IA, como a mudança de contexto, como numa foto de 10 anos atrás e que falam que foi ontem.

A DARPA apresentou no SXSW modelos biométricos para identificar movimentos da face, lábios, cabeça e com isso discernir o que é fake ou não. Segundo eles, as deepfakes são inicialmente trocas faciais de redes neurais.

Um vídeo falso retratando o presidente ucraniano Zelensky teve um avanço ao filmar um ator feito especificamente para uma cena. A suspeita começou por uma pessoa no time que percebeu que Zelensky usava uma camisa suspeita e que as orelhas estavam estranhas.

Os maus agentes estão sofisticados não só nas técnicas de produção de conteúdo como também em motores de engajamento e escalabilidade dos conteúdos em redes sociais e na dark web. É clara a explosão de desinformação com o advento de inteligência artificial generativa, como também é clara a permanência de técnicas pré-IA, como a mudança de contexto, como numa foto de 10 anos atrás e que falam que foi ontem.

Como contra-atacar

Os pesquisadores estão verdadeiramente preocupados e as ameaças vão além das eleições. Estão em golpes, em escolas para fazer bullying e outros. E o contra-ataque precisa ter novas defesas.

Claramente precisaremos de leis para coibir e criminalizar esse tipo de mal uso da IA. Assim como um antivírus, veremos o surgimento de apps voltados para a proteção reputacional, para identificar desde a criação de conteúdos maliciosos até a detecção rápida de ameaças para rápido controle de dano.

Isso só reforça que a educação é um importante remédio, mas também escassa e carente de investimentos em nosso país. O uso das redes sociais para eleições começou com Obama e o “yes we can”.

Claramente precisaremos de leis para coibir e criminalizar esse tipo de mal uso da IA. Assim como um antivírus, veremos o surgimento de apps voltados a proteção reputacional.

O mundo aprendeu com esse caso de sucesso tanto para o bem como para o mal. Nasceu daí a Cambridge Analítica e todo o escândalo como conhecemos, com o protagonismo de Steve Bannon.

Depois, veio a eleição de Donald Trump, com a polêmica da interferência russa (IRA), o leak da WikiLeaks do caso Hillary Clinton (motivo principal da perseguição de Assange), a polêmica do Twitter Leaks e a interferência das agências de inteligência no Twitter.

A importância da educação contra a desinformação

Agora, veremos o novo capítulo desta “série”, com a IA como protagonista e pelo que alguns especialistas dizem, será um enredo pesado, com ingredientes de “filme de ação, terror, conspiração, ficção e casos policiais”.

Sou um otimista sobre os benefícios da IA, mas realista no segundo gume dessa nova faca. Há riscos reais e um enorme vale de prejuízos que iremos atravessar nas dimensões públicas, privadas e pessoais. A proteção para essa travessia está, entre alguns ingredientes gerais, na educação. A “AI literacy” (“letramento em IA”), como muitos falam ou “upskilling” (qualificação), como outros chamam.

Nesse tema de desinformação, há também um chamado por mais letramento. A imprensa tem um papel importante nessa educação, assim como a comunidade de AI e tecnologia.

A proteção para essa travessia está, entre alguns ingredientes gerais, na educação. A “AI literacy” (“letramento em IA”), como muitos falam ou “upskilling” (qualificação), como outros chamam.

Precisamos de educação e conscientização e estamos falando pouco disso a meu ver. Compartilhamos os casos de abuso, mas pouco sobre como combater, o que aprender, no que investir para nos prevenirmos como pais e corporações.

Já sabemos do poder das redes sociais para interferir em nossos relacionamentos pessoais, profissionais e políticos. Não somos mais estúpidos nesse assunto, mas agora temos um tema novo e sério na mesa. Há um elefante na sala e precisamos nos mexer e contribuir para este novo problema.

Rodrigo Helcer
Rodrigo Helcer fundou e liderou como CEO a Stilingue Inteligência Artificial, uma plataforma com IA orgulhosamente brasileira e que desde 2014 desponta na escuta, análise e gestão de conversas em canais sociais e digitais. Construiu um negócio referência em IA na América Latina, com 400 clientes, 350+ colaboradores e adquirido em 2022 pela Take Blip/Warburg Pincus, onde permanece como acionista e advisor. Rodrigo também atua como mentor e conselheiro de empresas nos temas IA, SaaS e desenvolvimento de mercados B2B.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui