A tecnologia pode nos ajudar a superar preconceitos em vez de perpetuá-los, desde que seres humanos a projetem, treinem e refinem tendo essa finalidade em mente
A inteligência artificial tem ganhado mais e mais manchetes negativas na imprensa norte-americana. Entre as principais razões para isso está a observação de preconceitos de raça ou de gênero em aplicativos de reconhecimento facial, de avaliação de pessoas para empregos, de avaliação de pessoas para empréstimos etc. Um programa chegou a recomendar sentenças de prisão mais longas para pessoas negras, na comparação com as brancas, com base no uso falho de dados de reincidência em crimes.
Porém e se, em vez de perpetuar vieses negativos, a IA nos ajudasse a superá-los e a tomar decisões mais justas? O resultado seria um mundo mais diverso e inclusivo. E se máquinas inteligentes ajudassem as organizações a reconhecer todos os candidatos valiosos para uma vaga ao evitar preconceitos que roubam as chances daqueles profissionais que não têm as “escolas certas” no currículo? E se os aplicativos fossem capazes de considerar as desigualdades que limitaram o acesso de minorias a linhas de crédito? E se nossos sistemas, em resumo, fossem ensinados a ignorar dados sobre raça, gênero, orientação sexual e outras características não relevantes para as decisões em questão?
A inteligência artificial pode fazer tudo isso – desde que haja a orientação de especialistas humanos que criem, treinem e refinem seus sistemas. Especificamente, as pessoas que trabalham com tecnologia podem fazer um verdadeiro trabalho de inclusão com o design da IA. Basta usarem os dados certos para ensinar esses sistemas a serem inclusivos e levarem em conta gênero e diversidade quando desenvolverem aplicativos para o público.
DESIGN PARA A INCLUSÃO
O desenvolvimento de software continua território do sexo masculino – só um quarto dos cientistas da computação nos Estados Unidos é de mulheres – e grupos raciais minoritários, incluindo negros e hispânicos, são sub-representados no mundo da tecnologia também. Grupos como Girls Who Code e AI4ALL foram fundados para reduzir essas lacunas. O Girls Who Code atingiu cerca de 90 mil garotas de várias origens em todos os 50 estados, e AI4ALL especificamente foca garotas em comunidades de baixa renda.
Entre outras atividades, o AI4ALL patrocina um programa de verão que visita departamentos de IA de universidades como Stanford e Carnegie Mellon para os participantes construírem relacionamentos com pesquisadores que podem funcionar como mentores e exemplos. E felizmente o campo da IA tem muitas mulheres para cumprir esse papel, como Fei-Fei Li (Stanford), Vivienne Ming (Singularity University), Rana el Kaliouby (Affectiva) e Cynthia Breazeal (MIT).
Esses relacionamentos não só abrem oportunidades de desenvolvimento para os mentees; também transformam os mentores em defensores da diversidade e da inclusão, o que acaba por afetar o modo como eles abordam o design dos algoritmos. Pesquisas dos sociólogos Frank Dobbin, da Harvard University, e Alexandra Kalev, da Tel Aviv University, corroboram essa ideia: eles descobriram que trabalhar como mentor de minorias reduz o preconceito de quem dá as mentorias, algo que o treinamento tradicional não faz . (Mas pode ser demorado.)
Outras organizações buscam soluções de mais curto prazo para equipes de design de IA. A LivePerson, que desenvolve produtos de troca de mensagens online, marketing e de analytics, coloca sua equipe de atendimento ao cliente (uma profissão que é 65% feminina nos Estados Unidos) ao lado de seus programadores (geralmente homens) durante o processo de desenvolvimento, para obter maior equilíbrio de pontos de vista. A Microsoft criou uma estrutura para montar equipes de design “inclusivas”, que podem ser mais eficientes para considerar as necessidades e sensibilidades de uma miríade de tipos de consumidores, incluindo os que têm deficiências físicas. O projeto Diverse Voices da University of Washington tem uma meta semelhante – desenvolver tecnologia com base na contribuição de vários stakeholders para melhor representar as necessidades de segmentos não dominantes da população.
Algumas ferramentas alimentadas por IA também estão sendo criadas para mitigar preconceitos na contratação. Editores de texto inteligentes, como o Textio, podem reescrever descrições de cargo para serem mais atraentes a candidatos de grupos mal representados. Usando o Textio, a empresa de software Atlassian foi capaz de aumentar a porcentagem de mulheres entre seus novos recrutados de cerca de 10% para 57%. As empresas também podem usar tecnologia de IA para ajudar a identificar vieses em suas decisões de contratação passadas. Redes neurais profundas são especialmente boas em descobrir preferências ocultas. Com essa técnica, o serviço baseado em IA Mya ajuda as empresas a analisar seus registros de contratação e ver se favoreceram candidatos de pele clara, por exemplo.
DADOS MELHORES
Muitos conjuntos de dados usados para treinar sistemas de IA contêm um histórico de preconceitos – por exemplo a palavra “mulher” é mais associada à enfermagem do que à medicina. E, se essas associações não forem identificadas e removidas, serão perpetuadas e reforçadas.
Por mais que os programas de IA aprendam ao encontrar padrões em dados, eles precisam de orientação humana para garantir que não tirem conclusões erradas. Esta é uma ótima oportunidade para promover diversidade e inclusão. A Microsoft, por exemplo, implantou uma equipe responsável por identificar preconceitos infiltrados nos dados usados em seus sistemas.
Às vezes, os sistemas de IA precisam ser refinados por meio de mais representação inclusiva em imagens. Por exemplo, os aplicativos de reconhecimento facial têm baixa precisão quando lidam com minorias: a taxa de erro para identificar mulheres de pele escura é de 35%, comparada a 0,8% de homens de pele clara. O problema são os conjuntos de dados disponíveis gratuitamente para treinar os sistemas; eles são cheios de fotos de rostos brancos. Isso pode ser corrigido com a curadoria de um novo conjunto de dados de treinamento com melhor representação de minorias ou ao se aplicar pesos maiores aos dados de sub-representados.
Outra abordagem – proposta pelo pesquisador da Microsoft Adam Kalai e seus colegas – é utilizar algoritmos diferentes para analisar grupos diferentes. Por exemplo, o algoritmo para determinar quais candidatas seriam as melhores vendedoras pode ser diferente do algoritmo usado para avaliar homens – um tipo de tática de ação afirmativa digital. Mais concretamente, ter praticado um esporte coletivo na faculdade poderia dar mais pontos para elas do que para eles.
VOZ DIVERSA DOS BOTS
Para competir em diversos mercados de consumo, uma empresa precisa de produtos e serviços que possam falar com as pessoas da forma que estas preferem. No meio da tecnologia, tem havido muita discussão sobre por que, por exemplo, as vozes que atendem chamadas em help desks ou que são programadas como assistentes pessoais como a Alexa, da Amazon, são femininas. Estudos mostram que tanto homens como mulheres tendem a preferir vozes femininas, que percebem como calorosas e acolhedoras.
Essas “ajudantes” femininas não estão perpetuando estereótipos de gênero? Não ajuda que muitos bots femininos tenham vozes doces, subservientes. Isto é algo que a Amazon começou a abordar em sua versão recente da Alexa: o bot inteligente foi reprogramado para ter pouca paciência com assédio, por exemplo, e agora responde de forma incisiva a perguntas explícitas sobre sexo com frases como “Não vou responder isso” ou “Não estou entendendo o que você espera com isso”.
As empresas poderiam considerar oferecer versões diferentes de seus bots para atender a uma base diversa de consumidores. Siri, da Apple, está disponível com voz masculina ou feminina e pode falar com sotaque britânico, indiano, irlandês ou australiano. Também pode falar em várias línguas. Apesar de a voz-padrão normalmente ser feminina, a voz-padrão é masculina para árabe, francês, holandês e inglês britânico.
Tão importante quanto a forma de falar, os bots de IA devem também ser capazes de entender todos os tipos de vozes. Atualmente muitos não entendem. Para treinar algoritmos de reconhecimento de voz, as empresas usam bancos de dados, nos quais grupos marginalizados da sociedade – pessoas de baixa renda, população rural, indivíduos menos educados e não fluentes na língua – tendem a ser sub-representados. Bancos de dados especializados podem ajudar a diminuir o impacto de tais deficiências. E a Baidu, empresa do buscador chinês homônimo, está desenvolvendo um novo algoritmo de “discurso profundo” que diz que vai lidar com diferentes sotaques e dialetos.
Os benefícios potenciais da inclusão e diversidade são irrefutáveis: acesso aos melhores talentos de verdade e capacidade de servir bem a uma gama mais variada de clientes.