O Fundo Monetário Internacional publicou um relatório em que aponta a inteligência artificial como uma ameaça crescente à estabilidade do sistema financeiro mundial. O documento chama atenção para a capacidade que modelos avançados de IA têm de identificar e explorar vulnerabilidades em larga escala, colocando em risco instituições, mercados e economias inteiras.
O problema central: vulnerabilidades exploradas em velocidade inédita
De acordo com o FMI, modelos avançados de inteligência artificial são capazes de reduzir drasticamente o tempo e o custo necessários para descobrir falhas de segurança em sistemas amplamente utilizados. Isso significa que, assim que uma vulnerabilidade é identificada, a probabilidade de ela ser explorada de forma imediata e coordenada aumenta de maneira significativa. O relatório estima que perdas decorrentes de um incidente cibernético de grande escala podem gerar tensões de financiamento, preocupações com a solvência de instituições e perturbações nos mercados globais como um todo.
O caso que acendeu o alerta
A questão ganhou ainda mais urgência após a divulgação do Mythos, novo modelo de inteligência artificial desenvolvido pela Anthropic. Durante testes internos, o sistema identificou milhares de vulnerabilidades do tipo zero day em programas acessíveis online. Uma vulnerabilidade zero day é aquela desconhecida pelos desenvolvedores e usuários do sistema afetado, o que a torna especialmente perigosa. Para o FMI, o caso ilustra com clareza como a rápida evolução das capacidades da IA pode desestabilizar o sistema financeiro caso não seja cuidadosamente gerida pelas autoridades competentes.
O que o FMI recomenda
O relatório reconhece que alguns fatores ainda atuam como freio para esses riscos: as capacidades cibernéticas mais avançadas da IA ainda não estão amplamente disponíveis, e os softwares financeiros de uso fechado são mais difíceis de atacar do que infraestruturas de código aberto. No entanto, o próprio documento alerta que esses elementos de proteção tendem a se desgastar rapidamente à medida que o treinamento de modelos se expande e suas capacidades se difundem. Diante disso, a instituição recomenda maior coordenação internacional, compartilhamento de informações entre países e investimento em governança e supervisão humana sobre os sistemas de IA. O alerta é especialmente relevante para economias emergentes, que frequentemente dispõem de menos recursos para implementar defesas efetivas e podem se tornar alvos preferenciais de ataques.


