O futuro dos bancos com a inteligência artificial, por Lenildo Morais

Uma aplicação bem-sucedida de IA deve sempre considerar os riscos, bem como os custos de redução desses riscos.
Lenildo Morai
Lenildo Morais

Por Lenildo Morais*

Quando o chatbot com base em texto ChatGPT foi apresentado em novembro de 2022, o tema da inteligência artificial (IA) ganhou um novo nível de atenção do público. Em apenas cinco dias, o protótipo atingiu um milhão de usuários. Depois de dois meses já eram 100 milhões. Para efeito de comparação, Facebook e Netflix levaram 10 meses e 3,5 anos para alcançar seu primeiro milhão de usuários, respectivamente.

- Publicidade -

Embora não possamos comparar diretamente ChatGPT, Facebook e Netflix, esses números deixam um ponto claro: a IA tocou em nossa sociedade, levantando inúmeras questões que consumidores, reguladores e empresas em todo o mundo precisam resolver.

Trabalho em andamento – A situação legal atual em relação à IA

A legislação também precisa estabelecer novos padrões devido aos muitos novos aplicativos com base em IA. No entanto, o atual estado da IA ainda abriga muitas ambiguidades, principalmente para empresas do setor financeiro, no que diz respeito à interpretação do conteúdo e sua implementação.

- Publicidade -

Quais verificações de crédito se enquadram em aplicativos de alto risco? As certificações podem realmente criar confiança na IA como pretendido? E como alguns dos padrões de qualidade, como explicabilidade, transparência e justiça, podem ser comprovados?

Essas e outras questões representam desafios para o setor financeiro altamente regulamentado. No entanto, não é necessário esperar até que as ambigüidades sejam resolvidas pela prática. É por isso que se faz necessário criar padrões concretos para o tratamento interno da IA em um estágio inicial.

Oportunidades da IA no setor bancário

A programação tradicional depende de regras como condições se/então fornecidas pelo programador. Em contraste, o aprendizado de máquina (ML) visa “aprender” essas regras a partir dos próprios dados. Os benefícios da IA e ML vão desde o aumento da satisfação do cliente e o suporte aos processos bancários até a identificação de riscos, por exemplo, com:

  • Atividades de marketing e recomendações direcionadas, como a próxima melhor oferta;
  • Tempos de reação mais rápidos no contato com o cliente e redução de custos por meio de maior automação e processos mais eficientes, por exemplo, na classificação de documentos, extração automática de dados no processamento de documentos, talk e chatbots;
  • Evitando ou reduzindo perdas de risco de crédito, fraudes e riscos cibernéticos, por exemplo, detectando desenvolvimentos críticos ou padrões incomuns em uma grande quantidade de informações.

Além disso, infelizmente, a era da informação também permite que atividades criminosas relacionadas a fraudes, financiamento do terrorismo, lavagem de dinheiro e ataques cibernéticos sejam organizadas com mais eficiência. Com AI e ML, podemos neutralizar esse desenvolvimento reconhecendo padrões de atividade criminosa anteriormente.

Também é possível a utilização de modelos de linguagem com base na ampla arquitetura transformadora de redes neurais. O desenvolvimento adicional dessas arquiteturas e a disponibilidade de “Large Language Models” estão constantemente abrindo novas áreas possíveis de aplicação. As oportunidades que surgem para aplicações nos bancos são constantemente revistas, claro, sempre no contexto de um modelo adequado de gestão de risco.

Gerenciamento de riscos para IA

Uma aplicação bem-sucedida de IA deve sempre considerar os riscos, bem como os custos de redução desses riscos. Isso inclui transparência para os usuários e desempenho consistente do sistema, por exemplo, em termos de precisão, robustez e segurança cibernética. As considerações precisas ao selecionar os modelos e sua implementação são específicas da situação:

  • A alta qualidade dos dados é um pré-requisito para o desenvolvimento e aplicação robustos de modelos tradicionais e de ML. Além disso, aumentar a quantidade e o intervalo de dados disponíveis geralmente melhora os resultados do modelo;
  • Em alguns casos, abordagens com base em dados mais simples ou métodos estatísticos “clássicos” podem alcançar poder preditivo igual a modelos de IA mais avançados, mas sem os riscos associados a utilização de uma IA. No entanto, a descrição de relacionamentos complexos e não lineares geralmente requer a utilização de métodos de ML;
  • A relação bidirecional entre humanos e máquinas em ciclos de feedback e tomada de decisão pode aumentar a eficiência e a eficácia de um processo enquanto reduz o risco.

O recomendado é adotar uma abordagem com base em riscos ao desenvolver e implementar inteligência artificial. Os sistemas que contem IA são classificados em classes de risco de IA, dependendo de vários fatores, como complexidade do modelo, impacto e criticidade do negócio. A modelagem tem desempenhado um papel essencial no setor bancário há décadas. Está no centro de vários processos de negócios e atividades de suporte. Muitas medidas de modelagem são de importância crucial para o sucesso das instituições financeiras. As diversas situações de aplicação e complexidades dos métodos de ML devem ser abordadas especificamente pela abordagem orientada a riscos. Os direitos das pessoas envolvidas, sejam clientes ou funcionários, são protegidos em qualquer caso.

IA confiável e responsável

Uma estratégia recomendada para se utilizar inteligência artificial e aprendizado de máquina, é composta se alguns aspectos de construção. Um desses aspectos de construção é a “confiança”. Em comparação com dez anos atrás, o poder de computação de hoje e as extensas fontes de dados permitem uma gama significativamente maior de aplicativos de aprendizado de máquina. Isso também cria a oportunidade de penetrar profundamente nas áreas sensíveis e privadas da vida das pessoas. Existem, portanto, muitos aspectos, em particular considerações éticas, por exemplo, que devem ser levados em consideração ao definir IA confiável e responsável.

A maioria dos conceitos relacionados à IA confiável não são fundamentalmente novos, mas já são conhecidos desde a introdução de software em operações produtivas de TI, o processamento de dados ou o desenvolvimento e implementação de modelos clássicos. Dois aspectos são discutidos de forma particularmente intensa no debate público no contexto da IA e tem maior margem de interpretação: explicabilidade e justiça.

Explicabilidade

O escopo e a forma corretos de uma “explicação” de como um sistema de IA funciona não podem ser determinados sem especificar o destinatário e o contexto.

Os consumidores precisam receber a quantidade certa de informações compreensíveis para que possam validar as escolhas que fazem. Além disso, a documentação e os dados, por exemplo, para auditorias externas, devem ser completos e retidos por períodos de tempo especificados.

Além disso, o know-how de negócios tem sido desenvolvido internamente ao longo de muitos anos. A publicação dessas informações pode, portanto, levar a uma perda significativa de propriedade intelectual, lógica comercial confidencial e desvantagens em relação aos concorrentes.

Justiça

A discriminação pode assumir muitas formas e pode ser incorporada aos modelos de diferentes maneiras, independentemente das intenções dos desenvolvedores do modelo. À medida que os modelos de ML aprendem padrões de dados anteriores, eles “aprendem” os vieses que prevalecem na fonte. Isso acarreta o risco de que os preconceitos existentes sejam ainda reforçados pela automação e pela utilização de algoritmos. Portanto, a imparcialidade precisa ser cuidadosamente monitorada em todos os estágios do ciclo de vida do modelo com governança interna apropriada.

É importante observar que a criação de modelos de AI e ML é um processo iterativo. Claro, transparência e justiça são pré-requisitos importantes aqui. No entanto, muitas etapas de validação correspondentes só podem ser executadas durante ou após o processo de modelagem. Portanto, não é possível nem sensato exigir uma garantia definitiva de equidade desde o início sem bloquear a inovação desde o início. As duas considerações a seguir destacam os desafios e a necessidade de considerações diferenciadas que precisam ser abordadas ao desenvolver modelos de IA e ML do mundo real:

  • Correlação versus Causalidade: Muitas vezes é mal compreendido que a discriminação nem mesmo surge quando é potencialmente característica discriminante não é registrada ou posteriormente excluída do conjunto de dados. No entanto, se a característica potencialmente discriminatória estiver correlacionada com outras características utilizada para modelagem e com impacto no resultado do modelo, a exclusão de uma característica potencialmente discriminatória não necessariamente evita a discriminação, mas representa uma oportunidade para detectar e resolver qualquer discriminação.
  • Diferenciação versus Discriminação: A diferenciação é uma das tarefas mais antigas dos bancos. Para fins de risco, a diferenciação em torno de características estatisticamente significativas, como receita, é necessária para estimar a capacidade do cliente de pagar sua dívida. Essa forma de diferenciação protege o cliente individual, a estabilidade e a lucratividade de longo prazo do banco e, portanto, a estabilidade do mercado financeiro em geral.

Além disso, sistemas de IA robustos e confiáveis também podem ajudar a superar preconceitos inconscientes de tomadores de decisão humanos, pois fornecem resultados repetíveis e rastreáveis. Para garantir que todos os aspectos de IA confiável e responsável sejam aplicados é necessário que a governança de ML esteja constantemente sendo avaliada e evoluída.

Não há dúvida de que a IA continuará a mudar nossa sociedade. Portanto, é ainda mais importante para os bancos e provedores de serviços financeiros definir claramente como eles utilizam essa tecnologia para implementar suas possibilidades e abordar possíveis fontes de erro e uso indevido. A IA confiável e responsável não se reflete apenas na utilização de ML com base no risco, mas também deve se provar por meio da governança interna e seus controles.

Aqui é importante integrar os funcionários e seu know-how em novos processos e mudanças nas condições de trabalho. É igualmente importante levar a sério preocupações e medos nesta área sensível. O que conta para nossos clientes é a transparência e a forma correta de explicação ao utilizar a IA.

Queremos continuar a caminhar para nos tornarmos um banco consultivo digital, tendo em conta os interesses de todos os stakeholders. Essa é a única maneira pela qual a mudança digital pode ser bem-sucedida a longo prazo.

* Lenildo Morais é Mestre em Ciência da Computação, Professor Universitário, Pesquisador e Gerente de Projetos

Leia também:

IA nos Bancos – O futuro das instituições financeiras, por Lenildo Morais

- Publicidade -
- Publicidade -

Mais Notícias

- Publicidade -