Estudiosos de várias áreas avaliam as potencialidades – e os gargalos – do uso da ferramenta na assistência à saúde
Ferramentas de inteligência artificial (IA) baseadas no processamento de linguagem natural (NLP, do inglês, natural language processing), como assistentes virtuais e chatbots, estão se tornando cada vez mais sofisticadas. Os chamados grandes modelos de linguagem (ou LLMs, large language models) – como o ChatGPT, a coqueluche tecnológica do momento – são uma nova fronteira desse processo evolutivo, com a promessa de poder transformar domínios através de tarefas cognitivas e criativas.
Em linhas básicas, o ChatGPT é uma versão chatbot do GPT (do inglês, generative pre-training transformer), um modelo de NLP treinado em uma grande quantidade de textos disponíveis na internet que, a partir de um determinado ponto de partida (como uma frase ou um parágrafo), é capaz de completar uma ideia, gerar respostas e criar conteúdos de forma automatizada. Enquanto a classe anterior de modelos de IA (como os modelos de deep learning) foi projetada para reconhecer padrões específicos em grandes bases de dados, os LLMs são capazes de ir além, gerando novas sequências de dados que não foram previamente reconhecidas pelo modelo. Usando o exemplo do ChatGPT, algoritmos são capazes de, utilizando meios estatísticos avançados, prever uma determinada sequência de palavras a partir de palavras previamente fornecidas, gerando linguagem humana.
A primeira versão do GPT foi lançada em 2019 pela Open AI, startup americana sediada na Califórnia. Mas foi somente com o lançamento do GPT-3, em 2020, construído a partir de 175 bilhões de parâmetros (que incluíram desde artigos do Wikipedia até publicações acadêmicas), que o interesse pela ferramenta se disseminou. Atualmente, incorporando a versão 3.5 do GPT, o ChatGPT parece ser capaz de lidar com instruções mais complexas, com vertiginoso incremento na produtividade e assertividade das informações geradas. Digno de nota, a atual versão da ferramenta não incorpora publicações disponíveis na rede após o ano de 2021 e não detalha as fontes em que se baseiam as informações geradas para cada pergunta.
No âmbito da saúde digital, toda a euforia momentânea com o assunto se iniciou desde que estudos em fase pré-clínica foram publicados, recentemente, em revistas científicas da área sem grande fator de impacto. Dentre esses, destacam-se dois artigos ainda não revisados por pares (pre-prints) que incluíram o ChatGPT nos créditos de autoria e que suscitaram o debate sobre novos aspectos éticos e de responsabilidade pelo conteúdo quando a ferramenta foi utilizada. Outro estudo (também em pre-print) descreveu ainda que o ChatGPT foi capaz de escrever resumos de artigos científicos indistinguíveis daqueles elaborados por humanos. Os autores sugeriram, no entanto, que instituições de pesquisa que optarem por permitir o uso da tecnologia devem seguir regras de transparência pré-estabelecidas. Ainda no último dezembro, a mídia especializada alardeou os resultados de um outro estudo americano que mostrou uma boa performance do ChatGPT na aplicação do United States Medical Licensing Exam (USMLE), exame oficial exigido para obter a licença médica nos Estados Unidos, sugerindo um potencial valor da tecnologia em atividades de educação em saúde.
Desde a publicação desses artigos, inúmeras potencialidades de uso do ChatGPT na assistência à saúde estão sendo especuladas. Para citar alguns exemplos, a coleta de dados específicos em prontuários médicos e a produção de textos explicativos em linguagem mais acessível para os pacientes a partir desses dados parecem ser, de fato, tarefas facilmente aperfeiçoadas pela ferramenta. No entanto, é preciso lembrar que o uso de IA nesse contexto só deve ser feito com dados anonimizados, em consonância com diretrizes éticas que garantam o direito à privacidade e confidencialidade dos pacientes. Até o momento, nenhuma agência reguladora em todo o mundo avaliou o uso do ChatGPT para tais fins.
Quanto ao seu potencial uso clínico, é de fundamental importância afirmar que os inúmeros cuidados e precauções necessários pressupõem o debate racional e equilibrado das limitações de tecnologias que envolvam LLMs, algo ainda incipiente no momento. Enquanto uma rápida busca ao (já vintage, em tempos de ChatGPT…) Google, nos mostra espantosas aplicações da ferramenta respondendo perguntas médicas factuais, o desempenho do ChatGPT em questões complexas (como saúde mental, por exemplo) ou em longas conversações não parece tão facilmente demonstrável, com tendência à redundância e relatos de “estresse” e “alucinação” algorítmica.
Vale lembrar também que ferramentas como o ChatGPT são testadas em contextos específicos conhecidos em linguagem tecnológica como few-shot learning settings, não incluindo até o momento inputs visuais, auditivos ou de linguagem corporal, essenciais ao exame clínico de qualquer paciente. Dessa maneira, tais tecnologias não se propõem a substituir a interação entre humanos (médico e paciente) por não terem sido desenhadas para tarefas preditivas como sugestão de condutas e tratamentos. Tais aplicações devem ser sumariamente evitadas no contexto de tomada de decisão clínica enquanto rigorosas técnicas de validação não forem definidas.
Além disso, informações geradas pelo ChatGPT, por se basearem em linguagem produzida por humanos, podem conter vieses humanos. Ao ser desenhado estritamente para gerar uma resposta (e não necessariamente avaliar seu conteúdo ou prever sua repercussão), esse algoritmo tem o viés de sempre “cuspir” uma resposta. Dessa forma, o uso inadequado dessa ferramenta pode refletir, ou mesmo amplificar, alguns desses vieses, o que pode ter consequências drásticas em contextos complexos como a assistência à saúde.
Enquanto as comunidades médica e tecnológica se dividem sobre essas questões, novos estudos e a revisão por pares de alguns dos artigos acima descritos ainda se encontram em andamento. Universidades, conferências internacionais e grandes publicações científicas, como Nature e Science, divulgaram políticas restritivas (e um tanto precipitadas) direcionadas para alunos e autores que usarem o ChatGPT em seus manuscritos. Posicionamentos de autoridades em ética e regulação tecnológica em diversas áreas brotam dia após dia, e novas diretrizes e protocolos institucionais sobre os contextos em que essa poderosa ferramenta poderá ser aplicada são ansiosamente esperados. Sem sombra de dúvidas, a comunidade médica precisa estar atenta e participativa nesse processo.
Para um futuro próximo, uma parceria com a gigante da tecnologia Microsoft e o lançamento da versão 4.0 do GPT já foram anunciadas, prenunciando uma versão ainda mais eficiente do ChatGPT. Paralelamente, inúmeros questionamentos (inclusive em nível judicial) estão sendo feitos sobre a já esperada monetização da ferramenta e sobre os direitos autorais e copyrights das bases de dados incorporadas ao seu treinamento, o que poderá frear parte do entusiasmo que presenciamos atualmente.
Embora saibamos que polêmicas e controvérsias sejam comuns quando o binômio tecnologia e saúde esteja em pauta, o atual debate é tão instigante quanto necessário. Se, na era da saúde digital, o ChatGPT será de fato uma ferramenta disruptiva ou apenas mais um modelo de linguagem computacional, só o futuro dirá. Ao menos por enquanto, alguém (humano) precisará fazer as perguntas e outro alguém (também humano) precisará avaliar e validar as respostas. O futuro, ao que parece, será híbrido.
E enquanto o futurista médico cyborg não for realidade, o que vale sobre o ChatGPT é a célebre frase do poeta Vinicius de Moraes: “que seja infinito enquanto dure.”
Artigo escrito em parceria com Ari Araújo, médico radiologista do Hospital Sírio-Libanês (São Paulo) e do Grupo Fleury, membro do programa de jovens líderes da Academia Nacional de Medicina e do Global Outreach Committee da Society of Thoracic Radiology (Estados Unidos).