IA gera conhecimento em escala tornando possível melhores decisões para questões complexas em governança. O fundador e CEO da Bravo GRC, Claudinei Elias, explica os principais temas que guiam as discussões sobre os impactos da governança nessa ferramenta tecnológica
Boa parte dos executivos costuma pensar na inteligência artificial (IA) como uma questão de tecnologia. O conceito, no entanto, passa por uma mudança de paradigma. Na MIT Sloan Management Review, o tema é tratado como uma nova dimensão dos negócios. Para o desempenho destes, os benefícios são inegáveis. Mas e quanto ao compromisso ético, os riscos e as implicações práticas desse sistema?
Passa a ser difundido o conceito de inteligência artificial responsável (RAI), que conecta a tecnologia à governança corporativa, incluindo estruturas, processos e ferramentas que ajudem a garantir que seus sistemas sigam princípios éticos e promovam bem-estar ao transformar os negócios. Entretanto, essa não é uma prática padrão.
Um levantamento feito pela MIT Sloan Management Review aponta que 52% dos entrevistados relatam que suas organizações têm um programa de inteligência artificial responsável em vigor. Destes, a maioria, 79%, apontam que a implementação do programa é limitada em escala e/ou escopo. Já outra pesquisa, feita pelo BCG, revela que 55% dos executivos superestimam a maturidade de seus programas internos de RAI.
Em tempos em que tecnologias emergentes trazem incertezas e colocam as organizações diante de grandes desafios para a tomada de decisão nos negócios, como a governança permeia todo esse cenário? Nesta entrevista, Claudinei Elias, fundador e CEO da Bravo GRC, consultoria tecnológica voltada a GRC e ESG, explica os principais temas que guiam as discussões sobre os impactos da governança na IA e, também o contrário, numa poderosa relação simbiótica de ganha-ganha. Acompanhe a seguir.
Claudinei Elias: A IA pode ser usada de inúmeras maneiras: para monitorar questões regulatórias, avaliar questões políticas internas, identificar potenciais riscos e violações de forma preventiva e preditiva, e gerar informações segundo a linha de raciocínio atribuída a ela. Ou seja, ela ajuda a tomar decisões para questões complexas. Isso porque quanto mais dados a IA absorve, mais claro é o conhecimento que ela desenvolve, até que passa a apresentar características “humanas” no sentido de seguir uma linha de raciocínio e trazer respostas com o tom de voz ou estilo de escrita de quem a comanda, por exemplo. Além disso, a IA aumenta a velocidade e eficiência dos trabalhos repetitivos ao automatizar processos de governança.
Quando atua de forma robusta e transversal em toda a organização, a governança garante que a IA seja usada de forma responsável. Com base em políticas internas, ela permite criar processos inteligentes de avaliação de risco em relação à utilização e à adoção dos dados gerados. E também cria correlação de riscos associados à utilização de IA, especialmente riscos éticos e legais, de segurança da informação, riscos reputacionais e de vieses negativos.
Compliance, por sua vez, terá um papel significativo nessa evolução. Ter conformidade em relação a regulamentações referentes à utilização de IA irá garantir que sua aplicação seja feita de forma mais responsável dentro da organização. É importante mencionar, ainda, a retroalimentação proporcionada por uma boa estrutura de GRC no cenário da IA. Quanto mais a empresa estiver estruturada em GRC, mais fácil entenderá as transformações.
As áreas da segunda linha de defesa – como as de risco, compliance, controles e riscos de tecnologia – e as da terceira linha de defesa – como auditoria – quando bem estruturadas têm um conhecimento profundo da organização e de seu entorno. E essas áreas se transformarão profundamente com IA. Isso significa dizer que terão uma capacidade bem maior de trazer conhecimento para a organização e entender os impactos de seus processos na cadeia de valor e na teia de stakeholders. Isso impacta inclusive sua performance em um cenário de capitalismo consciente.
O mais relevante deles é a transparência. É preciso que a organização saiba, de forma clara, como a IA está sendo utilizada, quais decisões são tomadas por seu intermédio e se existe revisão humana posterior, por exemplo. Em segundo, listo a responsabilidade: de quem é a accountability pelas decisões tomadas pela IA? Em terceiro, privacidade, é preciso responder, de forma precisa, como os dados serão utilizados. E, por fim, os aspectos legais e de justiça. É imperativo garantir que essa tecnologia não seja usada de forma discriminatória ou que seja influenciada por vieses negativos, como preconceito e discriminação, sem contar que os vieses dos modelos e seus algoritmos também podem levar à avaliação de cenários e decisões incorretas; isso é um risco em si. Sabemos que nós, humanos, há milênios somos regidos por vieses inconscientes, ou seja, generalizações baseadas em estereótipos de raça, classe, etnia, idade, gênero, orientação sexual e outros. Elas existem porque, ao pensar, fazemos julgamentos automáticos que derivam de associações armazenadas na nossa memória, que por sua vez estão ligados à forma como fomos criados, nossa educação, enfim, a tudo a que fomos expostos.
Para mim, o futuro da governança está fortemente ligado a esses vieses. E reside aí o maior desafio, afinal somos nós, humanos, quem programamos a IA. Logo, à medida que nos tornamos cada vez mais dependentes de algoritmos e outras formas de IA, há um maior risco de que esses sistemas reflitam e perpetuem os preconceitos existentes na sociedade. Há consequências diretas para a justiça e imparcialidade de nossos sistemas de governança, bem como para os direitos e oportunidades de indivíduos e comunidades marginalizadas ou sub-representadas, por exemplo.
É inegável afirmar que uma governança estruturada mitiga e minimiza riscos ligados à IA. Esses riscos dependem do setor em que a empresa está inserida, do quanto esse ambiente é regulado e de como os dados são usados. Cada setor tem seu nível de exposição e dados sensíveis. Uma empresa do setor aeroespacial tem um grau de exposição e ameaça diferente de outra de seguros, por exemplo, mesmo que todas estejam usando IA com o mesmo objetivo e o mesmo rigor de governança.
Para garantir que a utilização da IA seja responsável e ética a governança é fundamental. Isso permeia a criação de políticas de orientação e utilização, a conformidade delas, e o monitoramento de uso. Nesse contexto, deve existir a atualização e revisão contínua dessas políticas, já que elas precisam ser dinâmicas para acompanhar a evolução tecnológica. O que definirá a frequência e tamanho das revisões é o ambiente interno da organização e seu nível de exposição. Vale lembrar que os modelos revisados de forma contínua aprendem com base nos inputs de dados disponibilizados, outro benefício.
A utilização de IA é um processo transversal na organização, assim como ESG. Significa afirmar que ambas impactam de forma sistêmica toda a organização. Assim, é natural que a discussão sobre IA chegue até a questão da cultura e engajamento – que atinge todas as outras ciências da gestão. Então, de fato, para que ela faça parte da cultura da empresa, primeiro é preciso haver clareza quanto ao seu uso e objetivos. Os aspectos preponderantes da adoção da IA devem envolver todos os stakeholders – para isso, devem ser feitos treinamentos, encontros para gerar conhecimento, workshops. É preciso que a empresa faça o exercício de pensar como funcionários de diferentes áreas irão aprender, entender e aplicar IA. É fundamental o papel da alta liderança nessa jornada. Trabalhar a comunicação e seus desdobramentos para dentro da organização requer a criação de um roadmap de implementação. Nesse processo é preciso estar claro o que se espera alcançar com IA e esse objetivo deve fazer sentido para todos, assim como as diretrizes do uso. O grande objetivo, especialmente nesse momento em que a IA está em franco desenvolvimento e ainda não temos clareza sobre todas as suas implicações, é ter o empoderamento humano com o auxílio dela. No entanto, o humano é quem terá a capacidade de validar, supervisionar e melhorar os modelos. Logo, é uma relação simbiótica e ao mesmo tempo um paradoxo.
Cada vez mais precisamos nos perguntar como a inteligência artificial vai trabalhar de maneira a empoderar os humanos e não os destruir. A boa utilização da tecnologia irá ajudar a chegar a uma resposta. São indiscutíveis os grandes benefícios da IA tanto para GRC como para aspectos de ESG. Por exemplo, pondero que a capacidade da IA em capturar dados e transformá-los em conhecimento trará respostas para perguntas que não sabemos sobre impacto socioambiental. Imagina a IA aplicada para minimizar o impacto ambiental de toda cadeia de produção? O maior desafio é ter pessoas suficientemente educadas para entender, com capacidade analítica, os impactos dessa transformação tecnológica. Como comentei, é um enorme paradoxo: há riscos, mas também há grandes oportunidades; mais uma vez, observamos a ciência da gestão de riscos podendo ser aplicada de forma madura para resolver um dos grandes dilemas da humanidade.
No que diz respeito ao futuro, veremos uma mudança em direção a estruturas de governança mais transparentes e participativas, que nos tragam uma tomada de consciência profunda sobre os problemas aos quais as nossas sociedades estão expostas. Mudanças impulsionadas pelos avanços da tecnologia. Isso nos levará a uma evolução humana exponencial. É fato que teremos cada vez mais empresas com governance by design, risk by design, assim como sabemos que esses processos, métodos e tecnologias serão cada vez mais absorvidos como parte de processos transacionais. Será normal termos os cenários corrigidos por riscos (risk-adjusted scenarios) em muitos níveis, com o aumento da capacidade de acessarmos dados relevantes; isso será uma prática. O humano precisa estar preparado para ter uma relação simbiótica e crescente com a máquina, em uma relação de empoderamento mútuo, diferente de uma relação conflituosa.”