3 min de leitura

Inteligência artificial: aliada ou vilã da diversidade?

A tecnologia pode ser bastante vantajosa nos processos de recrutamento e seleção, mas é imprescindível considerar seu potencial impacto negativo sobre diversidade e inclusão

Daniele Botaro
12 de julho de 2024
Inteligência artificial: aliada ou vilã da diversidade?
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

Diversidade e inclusão tornaram-se cada vez mais importantes na sociedade atual, e isso também é verdade para o campo da inteligência artificial (IA). O ano de 2023 já chegou com um barulho forte sobre uma nova tecnologia chamada ChatGPT, um sistema baseado em IA que gera conversas a partir de perguntas e tópicos sugeridos por usuários.

Um dos benefícios da IA em se tratando de diversidade e inclusão, é que ela pode justamente ajudar a eliminar preconceitos humanos em determinadas situações, como no caso de processos de recrutamento e seleção. Por exemplo, algoritmos de IA podem ser treinados para identificar palavras-chave em currículos, permitindo uma avaliação mais objetiva das pessoas candidatas e isso pode ajudar a reduzir o impacto de preconceitos inconscientes que podem ocorrer durante o processo.

Além disso, a IA em chatbots pode ser desenvolvida para promover inclusão em suas interações com usuários. Por exemplo, os chatbots podem ser projetados para responder de maneira neutra em termos de gênero, evitando linguagem enviesada ou outras formas de preconceito. Eles também podem ser projetados para reconhecer e responder a uma ampla gama de identidades, incluindo raça, gênero, orientação sexual, etc.

Porém, embora a IA e os chatbots ofereçam muitos benefícios, é imprescindível considerar seu potencial impacto negativo sobre diversidade e inclusão, pois podem perpetuar ou amplificar preconceitos e discriminações existentes. Algoritmos podem ser tendenciosos se forem treinados em dados enviesados. Ponto.

Os algoritmos são tão bons quanto os dados com os quais são treinados e, se os dados usados para treinar um sistema de IA refletem os vieses e preconceitos das pessoas que os coletaram e processaram, o sistema de IA provavelmente reproduzirá resultados enviesados.

Por exemplo, os algoritmos de reconhecimento facial mostraram ser menos precisos para pessoas com tons de pele escuros, e isso provavelmente porque os dados usados para treinar esses algoritmos não eram diversos o suficiente e não representavam adequadamente pessoas com tons de pele diferentes.

Outra questão é que a IA pode perpetuar os vieses existentes na tomada de decisões. Por exemplo, os algoritmos usados na justiça criminal, contratações de emprego e concessão de empréstimos mostraram ser discriminatórios contra certos grupos, como pessoas negras e mulheres.

Para mitigar esses problemas, é importante garantir que os sistemas de IA sejam desenvolvidos e implementados considerando a diversidade. Isso significa que os dados usados para treinar sistemas de IA devem ser diversos e representativos da população a que se destinam. Isso também significa que as pessoas que desenvolvem e trabalham com sistemas de IA devem ser diversas e representativas da população que atendem, para que possam trazer uma variedade de perspectivas para o processo como um todo.

Resumindo, diversidade e inclusão são questões críticas no desenvolvimento e implantação de sistemas de IA. Algoritmos tendenciosos podem ter sérias consequências para comunidades marginalizadas, levando a tratamento injusto e exclusão. É importante garantir que os sistemas de IA sejam desenvolvidos e pensados por pessoas diversas, pois isso ajudará a garantir que a IA seja usada para beneficiar todas as pessoas, em vez de perpetuar os preconceitos e a discriminação já existentes.

Esse artigo foi escrito com ajuda do ChatGPT.

Daniele Botaro
Head de diversidade e inclusão da Oracle para a América Latina, ela também é embaixadora da Gaia+. Foi empreendedora, e sócia-diretora, da Impulso Beta, consultoria especializada em programas de diversidade.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui