Está aqui

Artigo de opinião do Administrador Hélder Rosalino no livro “88 Vozes sobre Inteligência Artificial” - A Inteligência Artificial ao serviço dos bancos centrais

A Inteligência Artificial ao serviço dos bancos centrais

Resolvi começar este artigo com a seguinte pergunta ao ChatGPT: “Como pode a inteligência artificial mudar o papel dos bancos centrais?” Obtive como resposta geral, que: “A inteligência artificial pode ter um grande impacto no papel dos bancos centrais, uma vez que pode ajudá-los a tomar decisões mais informadas e precisas com base em grandes quantidades de dados.” 

A concretização mais detalhada da resposta veio a seguir, com a explicitação de que a inteligência artificial pode mudar o papel dos bancos centrais nos domínios da: 

     “i) análise de dados: a inteligência artificial pode ajudar os bancos centrais a analisar grandes quantidades de dados de forma mais rápida e eficiente, permitindo identificar tendências e padrões em tempo real; 

     ii) previsão económica: a inteligência artificial pode ser usada para prever tendências económicas com mais precisão, ajudando a antecipar eventos económicos importantes, como recessões, e a tomar medidas preventivas; 

     iii) política monetária: a inteligência artificial pode ser usada para ajustar a política monetária de acordo com as condições económicas em tempo real. Isso pode ajudar os bancos centrais a tomar decisões mais informadas sobre a taxa de juros, sobre oferta de moeda e outras medidas de política monetária; e 

     iv) segurança e estabilidade financeira: A inteligência artificial pode ser usada para detetar fraudes e atividades ilegais no setor financeiro. Isso pode ajudar os bancos centrais a manter a estabilidade financeira e a proteger os consumidores.”

No essencial, a resposta não está errada, mas estará seguramente incompleta e com escassa profundidade, o que me levou a concluir que não era boa ideia pedir ao ChatGPT que me substituísse na elaboração deste artigo dedicado ao tema da inteligência artificial aplicada nos bancos centrais. Obviamente, não era esse o propósito desta consulta. Achei, apenas, interessante “testar os conhecimentos”, neste domínio específico, desta ferramenta que a todos tem vindo a surpreender e também, em alguma medida, a preocupar. O resultado não foi impressionante, mas não tiro daí especiais conclusões.

Como já se percebeu, vou tentar deixar algumas ideias sobre como estão os bancos centrais a mudar a forma como desempenham a sua missão usando a tecnologia e, em particular, a inteligência artificial, que promete mudar o mundo (já o está a fazer) em pouco tempo.

Desde a crise financeira global (2008), os bancos centrais reforçaram e assumiram novas e importantes responsabilidades, que vão desde a política macro-prudencial e acompanhamento do risco sistémico, à regulação, supervisão e resolução bancárias, às moedas digitais, até à medição dos impactos das alterações climáticas na estabilidade financeira. Estas responsabilidades passaram a exigir o acesso a novas fontes de informação e a recolher grandes volumes de dados, introduzindo, nessa medida, os bancos centrais nos complexos domínios do big data

Combinada com tecnologias inovadoras e disruptivas, como a aprendizagem automática ou o processamento de linguagem natural, a utilização de grandes volumes de dados nos bancos centrais oferece, sem dúvida, novas oportunidades para melhor compreender a economia e o sistema financeiro e, nessa linha, para apoiar a formulação de políticas e produzir conhecimento. 

As ferramentas de big data e de aprendizagem automática estão, em todas as geografias, a entrar rapidamente na atividade dos bancos centrais. A generalidade utiliza já, numa base regular, soluções de big data para apoiar o desempenho das suas principais funções, incluindo no campo das projeções económicas, da avaliação de riscos para a estabilidade financeira, da análise da política monetária e da produção de estatísticas monetárias e financeiras.

No campo da previsão económica, as técnicas de machine learning, um subcampo da inteligência artificial, quando aplicadas sobre big data têm desafiado as metodologias econométricas mais usadas. Um número crescente de estudos tem concluído que o desempenho dos modelos de machine learning é superior ao das metodologias econométricas tradicionais. Em geral, as relações apreendidas pelos algoritmos de machine learning são determinadas endogenamente pelos dados, oferecendo maior flexibilidade no desenho funcional do modelo e nas variáveis a considerar. 

Recentemente, surgiram os termos SupTech e RegTech, para descrever a aplicação de novas tecnologias para a supervisão e regulação das instituições financeiras, demonstrando como o sistema bancário está a ser significativamente impactado pela evolução tecnológica, nomeadamente pelo advento da inteligência artificial, em resultado das exigências que lhe tem vindo a ser impostas pelos reguladores e supervisores em matéria de tratamento e reporte de informação. Os requisitos prudenciais e contabilísticos aumentaram a necessidade de avaliar a evolução dos riscos de forma mais rigorosa e de comunicar um vasto leque de informações às autoridades de supervisão. 

Em matéria de avaliação de risco, apesar de maioritariamente ainda com pouca expressão, assiste-se à aplicação de novas abordagens suportadas em dados não tradicionais, especialmente através do uso da linguagem natural, por exemplo: na melhoria dos modelos tradicionais de scoring de risco, com base em informações públicas (imprensa ou sites especializados) ou em demonstrações financeiras retiradas dos sites públicos das empresas. 

A inteligência artificial e, em particular, o machine learning fornecem novos e poderosos instrumentos para analisar, de forma mais eficiente, volumes cada vez maior de dados, facilitando a tomada de decisões, por via da: a) disponibilização de informação mais completa, imediata e granular para complementar os indicadores macroeconómicos existentes, criados a partir de modelos mais convencionais; b) utilização e combinação de novas fontes de dados, entre o mais, com recurso a informação não estruturada obtida através de sites da internet ou das próprias redes sociais; e c) generalização de novas técnicas de recolha de dados, como, por exemplo, o text-mining e o web-scraping.

É assim natural que os bancos centrais tirem partido das capacidades da inteligência artificial, machine learning e processamento de linguagem natural. Este último com cada vez maior preponderância pela quantidade de informação não estruturada produzida e que abre oportunidades para aumento de eficiência em diversas funções.

Por exemplo: alguns bancos centrais recorrem já a soluções avançadas de inteligência artificial para a análise de pedidos de informação e reclamações submetidas por clientes bancários. Essas soluções automatizam a extração de informações e classificam-nas com taxas de eficácia consideravelmente elevadas. Noutra vertente e com base em informação extraída de relatórios e contas, análises financeiras e research económico, tem sido possível complementar a caracterização dos mercados e do sistema financeiro. Embora menos comum, há também exemplos promissores de capacidades de automação para garantir a conformidade com normas regulatórias, como a validação de contratos de crédito ou o acompanhamento da publicidade a produtos bancários. 

Outro exemplo: uma maior capacidade de processar e analisar informação, seja suportada em dados reportados e estruturados, num extremo, ou em dados não estruturados e extraídos de fontes públicas dispersas, no outro extremo, poderá resultar em melhores previsões de risco de crédito (previsões para indicadores como a probabilidade de incumprimento e perda em caso de incumprimento). Esta informação terá uma importância fundamental para os bancos centrais no acompanhamento do risco sistémico, da estabilidade financeira e da própria supervisão individual das instituições.

Estas inovações representam uma evolução crescente no papel desempenhado pela tecnologia na otimização dos processos internos e regulatórios, destacando o compromisso dos bancos centrais em alavancar tecnologias emergentes para fortalecer a eficiência e tempestividade da sua atuação. 

A utilização de grandes volumes de dados nos bancos centrais não apenas oferece oportunidades, mas também apresenta desafios significativos. A criação de infraestruturas tecnológicas, capacidade de processamento e bases de dados estruturadas em escala gigantesca emerge como um desafio crucial, não apenas devido à sua complexidade, mas também pelos substanciais investimentos necessários. Além disso, destacam-se os desafios associados à capacitação e reconversão da força de trabalho existente para se adequar a essas novas áreas de conhecimento, bem como à contratação de novos profissionais especializados em questões relacionadas com big data e inteligência artificial. 

Este problema é exacerbado pela escassez acentuada de recursos humanos nas áreas da tecnologia e da ciência de dados. A necessidade de competir por profissionais qualificados nesses campos torna ainda mais desafiador atrair talentos para lidar com as complexidades inerentes à análise de grandes conjuntos de dados. Nesse cenário, superar esses desafios exige não apenas investimentos substanciais em tecnologia, mas também uma abordagem estratégica e proativa na gestão de recursos humanos, visando a formação e retenção de talentos num ambiente altamente competitivo.

Por outro lado, a massificação de dados implica o reforço dos processos de controlo sobre a qualidade dos dados, recaindo sobre os economistas e analistas a validação e refinamento dos controlos de qualidade. Tal é necessário para garantir a precisão e a confiabilidade das informações, atendendo à possível distorção dos dados e ao aumento das interligações que podem conduzir a um comportamento pró-cíclico, uma vez que o machine learning simplesmente replica o enviesamento pré-existente. Esta situação que pode ser agravada, por exemplo, com dados recolhidos das redes sociais que podem não ser representativos e/ou fiáveis sobre a realidade em estudo.

Os fundamentos legais para o uso de dados privados e confidenciais representam outro desafio. Tradicionalmente, a maioria dos dados era recolhida e alojada em instituições públicas e, nessa medida, facilmente disponíveis para tratamento e análise. Nos últimos anos, com o advento do big data e do IoT, a criação de dados passou, sobretudo, para o setor privado. As empresas (maioritariamente as bigtech) possuem vastos volumes de dados privados, confidenciais e muito granulares, que residem fora do alcance direto das instituições públicas, dos bancos centrais e reguladores. 

Considerações sobre ética e privacidade colocam-se, neste novo contexto, sobre como aceder e como usar informações potencialmente sensíveis que estão nas mãos de empresas privadas. Podem os bancos centrais usar dados privados e granulares sobre, por exemplo, pesquisas dos utilizadores nas redes sociais, padrões de consumo ou preferências manifestadas? Muita discussão haverá a fazer, ainda, neste domínio. Em diferentes graus, os bancos centrais e outros decisores políticos precisam de assegurar o público de que os dados não serão utilizados para violações injustificadas ou não autorizadas do direito à privacidade dos indivíduos. 

O tema da ética assume particular relevância, e debate, quando se aplica, ou pretende aplicar, inteligência artificial para a tomada de decisão. Neste domínio é essencial assegurar que as decisões baseadas em sistemas de inteligência artificial são transparentes e explicáveis, caso contrário estaremos a lidar com “caixas negras” e com potenciais consequências indesejadas, tornando-se mais complexo apurar responsabilidades.

A dificuldade na interpretação dos resultados pode representar riscos para as instituições, nomeadamente se a sua tomada de decisão se basear exclusivamente em metodologias de machine learning. A este respeito, a Comissão Europeia está a trabalhar na regulamentação da inteligência artificial, para que a sua utilização respeite os valores, os direitos fundamentais e os princípios da UE. 

A literatura recente tem explorado mecanismos para interpretar resultados derivados de modelos de machine learning, contribuindo para um novo campo de investigação denominado eXplainable AI (XAI). Trata-se de uma abordagem que se concentra em tornar os modelos e sistemas de inteligência artificial mais compreensíveis e transparentes para os seres humanos evitando as tais “caixas negras” que dificultam ou impossibilitam perceber como chegam às suas conclusões ou tomam as decisões. Isso pode ser problemático em muitas situações, especialmente em áreas em que a transparência e a explicabilidade são importantes, como em questões legais, éticas ou de segurança. O XAI é uma área de pesquisa em rápida evolução, esperando-se que as soluções que venham a ser encontradas possam ser aplicadas em diversas áreas, desde a saúde até ao desenvolvimento de sistemas autónomos.

O outro grande ponto de discussão quando se aborda ética e inteligência artificial, já referido anteriormente, é a o enviesamento (bias), e como se garante que os sistemas se mantêm “justos” ou “neutros”. Este tema estará sempre muito dependente dos dados usados, sendo necessário investir em abordagens para identificar esses enviesamentos na vertente técnica. Mas será, também, necessário definir orientações e princípios para a transparência, responsibilização e justiça na utilização desses sistemas, assegurando a sua conformidade através de auditorias aos dados e modelos, de testes às aplicações e, não menos importante, pela atualização oportuna das normas definidas de modo a adequá-la a novas realidades.

Não podemos falar em evolução da inteligência artificial sem referir o potencial impacto nas profissões e funções dentro de uma organização. Com a promessa da automatização crescente, para tarefas rotineiras, mas também com complexidade acrescida, paira o risco da quebra abrupta da necessidade de mão de obra. A História tem exposto que as grandes revoluções culminam com o desaparecimento de profissões, mas tipicamente introduzem novas oportunidades de trabalho em maior volume. Não obstante, bancos centrais e demais organizações têm de capacitar as suas pessoas com planos de formação adequados à revolução que já há muito está em marcha “a todo o vapor”.

Em suma, a utilização da inteligência artificial é uma oportunidade e um desafio para os bancos centrais. Uma oportunidade porque podem melhorar as ferramentas analíticas que apoiam a tomada de decisão. Um desafio porque devem evitar que o seu uso prejudique a transparência das suas análises e decisões. 

Isso exige a adoção de uma abordagem rigorosa e de confiança na implementação de soluções tecnológicas baseadas em inteligência artificial, nomeadamente quanto à explicabilidade e interpretabilidade, à equidade no tratamento, à prevenção de bias, à rastreabilidade, auditabilidade e segurança dos resultados.

Termino como comecei, embora com a expectativa de melhores resultados, perguntando ao ChatGPT: 

“Que recomendações poderá dar aos responsáveis dos bancos centrais na utilização da inteligência artificial?” 

A resposta que obtive corroborou algumas das preocupações que já havia introduzido e demonstrou que o ChatGPT, quando devidamente enquadrado, pode ser uma ferramenta útil e complementar à análise humana:

“A utilização da inteligência artificial pelos bancos centrais pode trazer benefícios significativos, como a melhoria na previsão da inflação, na deteção de fraudes e na identificação de riscos financeiros. 

No entanto, é importante que essas tecnologias sejam usadas de maneira cuidadosa e responsável. Aqui estão algumas recomendações para os responsáveis dos bancos centrais na utilização da inteligência artificial:

Garantir a transparência: os bancos centrais devem garantir que os modelos de IA sejam transparentes e compreensíveis, de modo que as decisões tomadas pela IA possam ser explicadas e entendidas pelos responsáveis pela supervisão e regulação financeira.

Garantir a ética: os bancos centrais devem garantir que as aplicações de IA sejam éticas e justas. Isso envolve o uso de dados não discriminatórios e o monitoramento contínuo do uso de algoritmos para evitar bias ou discriminação.

Garantir a segurança: os bancos centrais devem garantir que os modelos de IA sejam seguros e protegidos contra ameaças externas, como ataques cibernéticos ou manipulação de dados.

Investir em formação: os bancos centrais devem investir no desenvolvimento de competências em IA para seus empregados, de modo que estes possam entender e avaliar adequadamente as aplicações de IA e tomar decisões informadas.

Fomentar a colaboração: os bancos centrais devem fomentar a colaboração e a partilha de conhecimento e experiências com outras instituições financeiras e organizações reguladoras para garantir que as melhores práticas em IA sejam adotadas e aprimoradas continuamente.”