Qua. Abr 22nd, 2026

A Autoridade de Conduta Financeira selecionou oito empresas, incluindo Barclays, Experian, Scottish Widows do Lloyds Banking Group e UBS, para um programa que testará aplicações de inteligência artificial em condições da vida real.

O regulador está executando o AI Live Testing Kit com a Advai, uma empresa com sede em Londres focada em segurança automatizada de IA.

O programa foi concebido para ajudar as empresas participantes a examinar questões como o controlo de riscos e a supervisão em tempo real, à medida que se preparam para utilizar a inteligência artificial em serviços que afectam os consumidores e os mercados financeiros.

As aplicações mostraram a rapidez com que o campo está a mudar, abrangendo uma vasta gama de abordagens de IA. Eles variavam desde IA de agente e modelos de linguagem pequena até sistemas mais novos, como IA neurossimbólica.

No segundo grupo, as empresas avaliam os usos tanto para o consumidor quanto entre empresas. Isso inclui orientação de investimento apoiada por IA, informações de classificação de crédito ao consumidor, pagamentos de agentes, verificações contra lavagem de dinheiro e funções de conhecer seu cliente.

As inscrições para a segunda rodada foram abertas em janeiro de 2026 e os testes começaram em abril.

A obra deverá ser concluída até o final do ano, seguida de relatório de avaliação no primeiro trimestre de 2027.

Ao lado do Barclays, Lloyds e UBS, as outras empresas selecionadas são Experian Plc, Aereve, Coadjute, GoCardless e Palindrome. A FCA disse que os testes ocorreriam em um ambiente controlado de mercado ao vivo, com clientes reais envolvidos.

Um grupo anterior, que incluía o NatWest Group, o Monzo Bank e a Scottish Widows, testou aplicações de IA durante cerca de seis meses.

A FCA disse que as aplicações em sua sandbox regulatória e vias de inovação aumentaram 49% em relação ao ano anterior. O relatório também concluiu que a atividade do mercado fintech está amplamente em linha com a procura de serviços de inovação do regulador, particularmente em áreas como a IA.

O regulador disse que publicaria um relatório no final de 2026 detalhando exemplos de boas e más práticas no uso de inteligência artificial em serviços financeiros.

Separadamente, os reguladores do Reino Unido, o Banco da Inglaterra, o governo e o Centro Nacional de Segurança Cibernética estão em discussões acirradas sobre os possíveis riscos associados ao modelo Mythos AI da Anthropic, ainda a ser lançado, informou a Bloomberg citando fontes.

No início deste mês, o secretário do Tesouro dos EUA, Scott Besson, convocou executivos de Wall Street para uma reunião de emergência para garantir que compreendem os potenciais riscos futuros da tecnologia.

A diretora de informação, informação e inteligência da FCA, Jessica Russo, disse: “Continuamos a trabalhar com empresas para apoiar o desenvolvimento seguro e responsável da IA ​​nos mercados financeiros do Reino Unido.

“Com o apoio alinhado da FCA e da Advai, a iniciativa reflete o nosso compromisso em apoiar o ritmo da mudança na IA, ao mesmo tempo que demonstra como os reguladores e a indústria podem trabalhar juntos para aproveitar a inovação de forma responsável”.

Separadamente, o governo do Reino Unido pretende introduzir um regime de testes comum para sistemas de IA de uso geral usados ​​pelos credores do Reino Unido, depois que o Banco da Inglaterra levantou preocupações no ano passado sobre como esses modelos são avaliados, um relatório Financial Times (FT).

A ideia foi apresentada ao Departamento de Ciência, Inovação e Tecnologia no mês passado pela diretora de informação do Starling Bank, Harriet Rees.

“FCA do Reino Unido nomeia oito bancos para investigações de IA” foi originalmente criado e publicado pela Retail Banker International, uma marca de propriedade da GlobalData.


As informações neste site são incluídas de boa fé apenas para fins de informação geral. Não se destina a constituir um conselho no qual você deva confiar, e não oferecemos nenhuma representação, garantia ou garantia, expressa ou implícita, quanto à sua exatidão ou integridade. Você deve obter aconselhamento profissional ou especializado antes de tomar ou abster-se de qualquer ação com base no conteúdo do nosso site.

Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *