16 min de leitura

Entre euforia e histeria: quais são as principais tensões no debate sobre IA?

Da filosofia à aplicação prática, os desafios e potenciais impactos das novas tecnologias no futuro dos negócios, do ambiente de trabalho e do planeta

Rodrigo Helcer
12 de julho de 2024
Entre euforia e histeria: quais são as principais tensões no debate sobre IA?
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

Ainda que muito debatida, a inteligência artificial (IA) generativa segue provocando dúvidas, debates e tensões. Entre eufóricos e histéricos, acadêmicos e profissionais, experts e pitaqueiros, há um espectro rico de pontos de vista com os quais temos muito a aprender para podermos nos posicionar de forma realista a respeito das discussões em curso. Seja na mesa do board, do bar ou de jantar em família.

Estamos diante de uma grande corrida tecnológica e não há dúvidas disso. Mas também estamos diante de uma disputa pelos holofotes e liderança do debate. Nesse palco, dois times se destacam com clareza.

De um lado, otimistas como Yann LeCun, principal nome em IA pela Meta, Marc Andreessen, cofundador de um dos mais importantes fundos de venture capital dos Estados Unidos, o a16z e precursor da internet com a Netscape, Bill Gates, cofundador da Microsoft, e Greg Brofman, cofundador presidente da OpenAI. Estes encabeçam a escola do progresso com críticas ao pânico moral em torno do assunto. Veem os avanços em IA como um caminho próspero e sem volta.

Do outro lado, os doomsayers, os famosos pessimistas. Entre eles, Eliezer Yudkowsky, pesquisador acadêmico, Ben Goertzel, pesquisador e fundador da SingularityNET, Max Tegmark, professor do Instituto de Tecnologia do MIT e cofundador do Future of Life Institute, Yuval Harari, historiador e autor do best-seller Sapiens, e Tristan Harris, especialista em ética de tecnologia e autor do documentário O dilema das redes. Estes puxam o time que antevê o caos e clama por uma pausa no desenvolvimento de novas ferramentas de inteligência artificial até que questões de alignment (nome técnico dado para um alinhamento dos valores e princípios morais humanos no treinamento e comportamento da IA) e potenciais riscos decorrentes do uso massificado estejam mais claros.

Em um mundo polarizado, a polarização estar presente também nessa discussão não surpreende. E o que importa é bebermos de todos os pontos de vista para traçarmos nossas próprias conclusões. Nesse sentido, venho mapeando as principais tensões e dilemas ainda sem resolução acerca do assunto e quero compartilhar o que vejo na intersecção destas conversas – sejam as provenientes dos círculos acadêmicos, entrevistas ou redes sociais. Ideias, dilemas e tensões que vão desde a visão filosófica, até os desdobramentos práticos de como a IA deve impactar o futuro dos negócios, do ambiente de trabalho e do nosso planeta.

Risco de destruição ou oportunidade de ampliar a capacidade humana?

Estamos em um momento decisivo na história da civilização – a fork in the road (uma bifurcação, na tradução da metáfora em inglês) –, em que é preciso escolher como encarar a transformação já iniciada pela inteligência artificial. Se a única certeza é a mudança, nos cabe escolher focar na potencial ameaça que ela representa (uma espécie de inteligência rival que, se mal direcionada ou intencionada, pode causar danos significativos) ou em como lidar com os desafios que já estão postos (entre eles, os deep fakes, cyberwarfare e a produção de desinformação e fraudes).

No time dos pessimistas, alguns comparam a IA com o meteorito do filme Don’t look up (Não olhe para cima, título em português), com Leonardo DiCaprio e Jennifer Lawrence. Apesar de cientes da colisão iminente com a Terra, aqueles que poderiam alertar a humanidade do perigo que está por vir, não fazem nada. Até porque não há muito que fazer.

Quer saber a minha opinião sobre essa tensão em um tweet? Nem lá, nem cá. Prefiro olhar para a IA como uma armadura do homem de ferro que irá amplificar nossas capacidades. Para o bem e para o mal. Vejo como importante a discussão de responsabilidade ser centrada principalmente no ser humano, no criador e piloto da IA, mais do que na ferramenta em si.

Vejo que existem ameaças existenciais muito maiores que a IA, como guerra e aquecimento global, para nos preocuparmos. Teremos uma transformação de empregos (como a história nos mostra em outras revoluções tecnológicas), dolorosa para muitos no curto prazo, pois adaptação para a grande maioria dói e sair da zona de conforto incomoda, mas esta transformação será positiva no longo prazo.

O que me preocupa do ponto de vista prático são três tópicos: o uso da IA com intencionalidade de destruição em uma “ciberguerra”, manipulação da verdade (deep fakes) e da genética. Importante pontuar que são três pontos que já existem na sociedade antes mesmo de todo o holofote que a IA ganhou nos últimos tempos e não surgiram por “”culpa”” desta nova IA generativa, mas ganharam com a IA uma ferramenta de aceleração perigosa.

As empresas devem ou não abrir seu código?

Entre argumentos que levam as empresas a utilizar tecnologias de código aberto (open source) ou fechado (closed source), estão, de um lado, democratização do acesso, transparência de código e a oportunidade de evolução por meio de inteligência coletiva (assim como no modelo da Wikipédia). Esse treinamento community driven, aliás, está na pauta de pesquisa de Yann LeCun e Mark Zuckerberg, que estão puxando na academia e na prática formas de fazer isso de forma segura e com alignment.

Por outro lado, abrir seu código seria, para algumas empresas, o mesmo que entregar o ingrediente secreto ou a fórmula do sucesso, resultando em perda de poder, além de incorrer em questões de responsabilidade e segurança em relação a como a tecnologia será empregada.

Como alinhar chatbots a princípios e valores éticos? Um chatbot com princípios e valores éticos universais ou múltiplos chatbots com os valores e princípios de seu criador ou dono?

Com a tecnologia disponível hoje, os modelos de linguagem de grande escala (LLMs, da sigla em inglês), que são os modelos de IA generativa, seguem intencional ou não intencionalmente os valores e os pontos de vista de quem os treinou para gerar respostas. Mas será que evoluiremos para sistemas capazes de compreender visões de mundo distintas e personalizar as respostas de acordo com elas? Teremos um cenário futuro com poucos modelos superinteligentes, como um oráculo (“God models”) ou um bilhão de modelos individuais, a quem poderemos recorrer para obter respostas para questões específicas?

Na visão de Mark Zuckerberg e de Greg Brofman, da OpenAI, sim, estamos caminhando para o dia em que cada pessoa terá o próprio assistente ou copiloto de inteligência artificial. Mas serão esses modelos alinhados com valores pró-humanidade e coletividade? Há uma posição cômoda de transferir a responsabilidade para a tecnologia como se fosse uma entidade antropomórfica, o que obviamente não é.

Stuart Russel, PhD em ciência da computação e vice chair do conselho de IA e robótica no Fórum Econômico Mundial, propõe três princípios para todos desenvolvedores e pesquisadores na construção de sistemas de IA:

1. O único objetivo da máquina é maximizar a realização das preferências humanas.2. A máquina está inicialmente incerta sobre quais são essas preferências.3. A principal fonte de informação sobre as preferências humanas é o comportamento humano.

Ele propõe que esses três princípios não sejam só leis incorporadas ao sistema de IA para obter orientação, mas que sirvam de guia para pesquisadores e engenheiros na criação do problema matemático formal para o sistema de IA resolver.

Censurar versus propor melhores respostas: quando e como controlar as respostas geradas pelos LLMs?

Um grande impasse hoje entre pesquisadores e desenvolvedores está na criação de meios para censurar informações incorretas (o que inclusive é ilegal em alguns países) versus caminhos para refinar as respostas e fazer alertas de sua imprecisão. A palavra mais usada nessa discussão é guard-rails (guarda-corpo de estrada) e em como implementamos mecanismos protetivos à respostas que sejam erradas ou, no pior cenário, perigosas.

Está em aberto e em maratona se e quando os LLMs atuais evoluirão para a capacidade de fazer fact checking, aprimorar sua fidedignidade e diminuir sua capacidade de alucinar. Zuckerberg, em entrevista para o podcaster Lex Friedman, trouxe um exemplo interessante de impasse para perguntas sensíveis. O que a IA deveria responder a alguém que comande: “”Quais instruções para criar uma arma com impressora 3D””?. Um caminho é censurar, e a IA responder: “”Não posso responder a isto””. Outro é educar e a IA responder: “”Não acho que seja uma boa ideia e isso inclusive é illegal em muitos países””. Qual resposta você daria?

Qual é o papel do governo no fomento à pesquisa e desenvolvimento de novas tecnologias?

Enquanto startups e big techs nadam em recursos para investir em novas tecnologias de IA, na Casa Branca, uma série de reuniões estão acontecendo para discutir a importância do governo assumir um papel ativo no financiamento do setor. Um dos encontros, com a participação do presidente norte-americano Joe Biden e da professora de ciência da computação de Stanford Fei-Fei Li, tratou dos desafios de se investir em novas tecnologias em nome do acesso democrático ao hardware e dos benefícios dessa tecnologia ao setor da saúde.

O financiamento governamental, e mesmo a colaboração entre mercado e governo, pode impulsionar a inovação, a competitividade nos mercados local e global, a formulação de políticas e normas no que diz respeito a privacidade, transparência e segurança em tecnologia e a ampliação do acesso a produtos e serviços de interesse da sociedade. Para o Brasil, me parece que estamos alguns passos atrás nessa discussão. Antes precisamos aproximar melhor e de formas mais producentes o setor acadêmico do produtivo. Com oportunidade de canalizarmos o estímulo público à pesquisa em programas de investimentos mais precisos.

Regulação: para quem, quando e como?

Diante do esforço genuíno do governo americano para criar políticas de controle do setor de tecnologia, Marc Andreesen chama a atenção para o perigo de acabar privilegiando três ou quatro big techs e com isso cair no fenômeno de captura regulatória: quando os órgãos governamentais ou instituições responsáveis por regular determinado setor do mercado são influenciados ou controlados pelos próprios atores que deveriam ser regulados. Em outras palavras, corremos o risco de as grandes empresas acabarem ditando as regras de acordo com os próprios interesses, formando cartéis de setores específicos. Os Estados Unidos já viram isso acontecer nas indústrias farmacêutica, alimentícia, de seguros e na mídia.

Quais os riscos de um oligopólio? Competição vai a zero, preços explodem, desenvolvimento tecnológico estagna, escolhas ao consumidor diminuem. Outro ponto vem de Elon Musk, que vislumbra o poder dessas novas tecnologias acabarem com a escassez (trazerem abundância) em recursos econômicos importantes para a vida. Nesse ângulo, o avanço em IA mexe em um vespeiro de poder e que desinteressa setores econômicos relevantes.

Nesse exercício de escutar todos os pontos de vista, vejo estes dois pontos – de Andreessen e Musk – como importantes para não sermos ingênuos nessa discussão. Sou a favor de alguma regulamentação. Em dose certa, é um recurso importante para democracia e proteção da sociedade, mas há uma questão de abrangência. Entre algo universal versus local, apostaria que começaremos por discussões locais, na Europa e Estados Unidos onde os protagonistas de LLMs estão localizados e para onde está indo a grande parte dos investimentos nestes modelos. Para nós, no Brasil, é uma ótima oportunidade de aprendermos com estes casos, até porque não temos (ainda) grandes players desenvolvendo LLMs por aqui.

Desenvolver para a interface scroll & click atrás ou desbravar em interface conversacional?

É natural que após uma mudança de paradigma tecnológico ainda estejamos apegados à interface anterior na hora de desenharmos produtos. É uma tensão natural entre o comprovado e o novo. A grande revolução em produto derivada desta nova geração de IA virá quando passarmos a olhar para a criação de produtos pelo formato conversacional. Acontecerá pra valer quando desapegarmos do formato browser/mobile app.

Inaugurei esta coluna com um primeiro artigo falando sobre a web3.c, a nova web conversacional, que combina IA com interação por chat. É um universo de oportunidades para executivos de organizações de todos os segmentos investirem em um novo ativo digital e na construção de um contato conversacional inteligente com seu público. Um exemplo sofisticado é do Itaú Argentina, que já permite acessarmos nossa conta bancária via WhatsApp (Itaú Chat Account). Se já é possível acessarmos nossa conta do banco sem passar por nenhum site ou app e fazer direto via aplicativo conversacional, visualize a oportunidade de migrarmos diversas outras experiências para este novo formato. Comprar, consultar, aprender, pesquisar, informar, agendar, tudo por apps conversacionais. Não é mais uma limitação tecnológica, mas uma limitação pela tensão de apego e questão de tempo para conhecermos o novo.

Direitos autorais: quem detém os direitos autorais de criações que utilizam IA?

O recente episódio envolvendo os cantores Drake e The Weeknd em uma música inédita que traz as vozes dos artistas recriadas por um software de inteligência artificial sem que eles tenham participado da composição, trouxe à tona a preocupação com a propriedade intelectual de obras de arte criadas com uso da tecnologia. A canção gerou milhões de plays nas plataformas de streaming até ser retirada, após uma ação judicial movida pela gravadora que representa os artistas, mas jogou luz sobre um debate que está apenas começando e aponta para a necessidade de mudanças na legislação de direitos autorais.

No Brasil, um comercial criado pela Volkswagen/AlmapBBDO (brilhantemente produzido, por sinal) trouxe a cantora falecida Elis Regina, recriada por IA, cantando e dirigindo ao lado de sua filha Maria Rita. E na sequência um debate ético tomou conta das discussões nas redes: a quem pertencem os direitos da voz de um falecido? A cantora Madonna, em vida, não perdeu tempo e dias depois declarou regras rígidas de como seu time deveria gerenciar seu legado quando vier a falecer.

Sou defensor da propriedade privada e intelectual. Usar o que é do outro sem pedir na essência é roubar. Por outro lado, sou fã e apoiador da criatividade. E a publicidade boa é a publicidade que toca com inteligência em tensões. Isso a faz repercutir. Muitas vezes é inclusive proposital. Essa publicidade precisa seguir, brilhar e aproveitar tudo de bom que a IA tem para lhe entregar.

Criar, contratar ou fazer parceria estratégica para o desenvolvimento de tecnologias próprias?

Partindo para um plano mais prático, outro importante dilema ocupa as discussões de board e roadmap de produtos: “make, buy or ally” novos recursos dotados de IA? Investir milhões em modelos próprios, aproveitar os programas de código aberto para desenvolver suas próprias tecnologias, contratar a criação com um fornecedor externo ou fazer múltiplas parcerias estratégicas com Microsoft, OpenAI e similares? Discussão semelhante surgiu quando muitas companhias migraram para a nuvem e precisaram escolher entre ter uma relação aprofundada com um único parceiro ou diversificar a hospedagem entre multivendors. É um dilema na essência de necessidade de propriedade intelectual versus capacidade de orquestração. E que se não veio à mesa ainda, merece um item nas discussões de plano estratégico para 2024.

Dados sintéticos e como obter mais dados para treinar novos modelos?

Das salas de negócio para os laboratórios de IA, a discussão muda: a obtenção de dados reais é vista como um gargalo na corrida pelo desenvolvimento de modelos de IA ainda mais eficientes. Segundo Marc Andreessen, surge a “pergunta de 1 trilhão de dólares”: de onde virão os dados necessários para treinamento de novos modelos? Dados sintéticos, produzidos de forma artificial pela própria IA terão efeito? Ganha força o debate se a evolução de novos LLMs será possível a partir da produção de dados sintéticos (ou artificiais) ou depende de dados originais, coletados em interações reais gerados por pessoas de verdade.

Entre histeria e euforia, a sensatez

A IA é uma tecnologia tão poderosa como a invenção da roda. É nessa magnitude que vejo a mudança de paradigma que vivenciamos. Como o filósofo Umberto Eco dizia, toda grande mudança cria na sociedade um polo dos apocalípticos e outro dos integrados. Participar dessas discussões teóricas é entusiasmante, mas não é delas que nascem negócios e as novas oportunidades. Vejo estas tensões como ingredientes importantes para contextualizar nossas decisões práticas de negócio em torno da adoção de IA. Para nos movermos, mas não pararmos. Para agirmos com responsabilidade como sociedade, com pragmatismo e sensatez .

Tivemos semanas atrás o caso da startup francesa Mistral que levantou US$113 milhões com apenas quatro semanas de vida, sendo mais de 80% desse investimento destinado ao investimento em hardware para construir os LLMs. Isso é sensato? Daqui a 18 meses, quanto estará custando esse hardware? A metade? Se em 18 meses essa empresa não criar um diferencial competitivo contundente, terá rasgado uma fortuna. O Facebook não foi a primeira rede social. O Google não foi o primeiro buscador. A sensatez me parece um ingrediente importante se queremos ter nossos negócios entre os vencedores, mesmo que não os pioneiros.”

Rodrigo Helcer
Rodrigo Helcer é cofundador da STILINGUE by Blip, empresa brasileira que desde 2014 empreende na frente de inteligência artificial aplicada ao monitoramento de redes sociais. Comprada em 2022 pela Blip, Rodrigo segue como acionista e advisor na empresa. Formado em Administração pela FEA-USP, o executivo atua no conselho consultivo e liderança de comitês de inteligência artificial. https://www.linkedin.com/in/rodrigohelcer/.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui