por Phoebe Sears
LONDRES (Reuters) – A capacidade dos bancos centrais e reguladores financeiros de monitorar e combater os riscos representados por poderosos modelos de inteligência artificial, como o Mythos da Anthropic, foi questionada depois que uma pesquisa descobriu que as autoridades financeiras estão atrasadas na adoção da inteligência artificial e carecem de dados sobre os danos emergentes.
As instituições financeiras estão a adoptar a inteligência artificial a uma taxa mais do dobro da dos seus supervisores, com apenas dois em cada 10 reguladores a reportarem “adopção avançada de inteligência artificial”, mostrou um estudo divulgado terça-feira pelo Centro de Finanças Alternativas de Cambridge. Apenas 24% das autoridades inquiridas estão a recolher dados sobre a adoção da IA na indústria, enquanto 43% não têm planos para começar nos próximos dois anos, concluiu o relatório.
“Este ponto cego empírico pode minar o optimismo prevalecente (sobre a IA). As autoridades não podem aproveitar ou monitorizar a IA se estiverem a navegar na sua adopção e riscos sem dados concretos”, afirma o relatório.
O estudo, preparado em conjunto com o Banco de Compensações Internacionais, o Fundo Monetário Internacional e outras instituições multilaterais, incluiu um inquérito a 350 instituições financeiras tradicionais e fintech, mais de 140 fornecedores de inteligência artificial e 130 bancos centrais e autoridades financeiras abrangendo 151 países.
Os reguladores globais e os organismos de normalização levantaram alertas sobre os riscos associados à propagação da IA no sector financeiro. No início de abril, a Anthropic lançou o Mythos, que é considerado pelos especialistas em segurança cibernética como um desafio significativo para o setor bancário e seus sistemas de tecnologia legados.
Os reguladores de todo o mundo têm interagido com os bancos sobre a forma como os seus sistemas legados estão preparados para os modelos emergentes de IA.
O relatório destaca o Mythos como um exemplo de sistemas de próxima geração que poderão em breve explorar vulnerabilidades de software em grande escala, limitando potencialmente a eficácia da governação humana existente e dos mecanismos de supervisão.
“Os reguladores geralmente mantêm o princípio de que as empresas financeiras devem continuar a ser responsáveis por danos, incluindo ataques cibernéticos, quer a IA seja construída internamente ou fornecida por terceiros, mas esta posição torna-se mais difícil de implementar no contexto de sistemas mais autónomos fornecidos e geridos por fornecedores terceiros”, escreveram os autores.
Além disso, as abordagens tradicionais à supervisão pelos reguladores podem já não ser suficientes. O relatório afirma que os próprios reguladores devem adotar capacidades anti-IA, capazes de agir sem supervisão humana, para corresponder aos sistemas que supervisionam.
(Reportagem de Phoebe Sears; edição de Tommy Regory Wilkes/Keith Weir)