Qui. Abr 30th, 2026

por Phoebe Sears

LONDRES (Reuters) – A capacidade dos bancos centrais e reguladores financeiros de monitorar e combater os riscos representados por poderosos modelos de inteligência artificial, como o Mythos da Anthropic, foi questionada depois que uma pesquisa descobriu que as autoridades financeiras estão atrasadas na adoção da inteligência artificial e carecem de dados sobre os danos emergentes.

As instituições financeiras estão a adoptar a inteligência artificial a uma taxa mais do dobro da dos seus supervisores, com apenas dois em cada 10 reguladores a reportarem “adopção avançada de inteligência artificial”, mostrou um estudo divulgado terça-feira pelo Centro de Finanças Alternativas de Cambridge. Apenas 24% das autoridades inquiridas estão a recolher dados sobre a adoção da IA ​​na indústria, enquanto 43% não têm planos para começar nos próximos dois anos, concluiu o relatório.

“Este ponto cego empírico pode minar o optimismo prevalecente (sobre a IA). As autoridades não podem aproveitar ou monitorizar a IA se estiverem a navegar na sua adopção e riscos sem dados concretos”, afirma o relatório.

O estudo, preparado em conjunto com o Banco de Compensações Internacionais, o Fundo Monetário Internacional e outras instituições multilaterais, incluiu um inquérito a 350 instituições financeiras tradicionais e fintech, mais de 140 fornecedores de inteligência artificial e 130 bancos centrais e autoridades financeiras abrangendo 151 países.

Os reguladores globais e os organismos de normalização levantaram alertas sobre os riscos associados à propagação da IA ​​no sector financeiro. No início de abril, a Anthropic lançou o Mythos, que é considerado pelos especialistas em segurança cibernética como um desafio significativo para o setor bancário e seus sistemas de tecnologia legados.

Os reguladores de todo o mundo têm interagido com os bancos sobre a forma como os seus sistemas legados estão preparados para os modelos emergentes de IA.

O relatório destaca o Mythos como um exemplo de sistemas de próxima geração que poderão em breve explorar vulnerabilidades de software em grande escala, limitando potencialmente a eficácia da governação humana existente e dos mecanismos de supervisão.

“Os reguladores geralmente mantêm o princípio de que as empresas financeiras devem continuar a ser responsáveis ​​por danos, incluindo ataques cibernéticos, quer a IA seja construída internamente ou fornecida por terceiros, mas esta posição torna-se mais difícil de implementar no contexto de sistemas mais autónomos fornecidos e geridos por fornecedores terceiros”, escreveram os autores.

Além disso, as abordagens tradicionais à supervisão pelos reguladores podem já não ser suficientes. O relatório afirma que os próprios reguladores devem adotar capacidades anti-IA, capazes de agir sem supervisão humana, para corresponder aos sistemas que supervisionam.

(Reportagem de Phoebe Sears; edição de Tommy Regory Wilkes/Keith Weir)

Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *