Qui. Mar 5th, 2026

Uma nova pesquisa alertou que as instituições de caridade podem prejudicar a confiança do público ao confiar na inteligência artificial para criar imagens de campanha emocionais.

Um relatório da Universidade de East Anglia (UEA) sugere que o uso crescente de imagens geradas por inteligência artificial em campanhas de angariação de fundos poderia levantar suspeitas e desviar a atenção das causas que as instituições de caridade estão a tentar promover. Um “atalho de alta tecnologia” para a empatia criado pela inteligência artificial poderia minar a conexão emocional que leva as pessoas a doar, disseram os pesquisadores.


A investigação surge num momento em que instituições de caridade e organizações humanitárias enfrentam orçamentos cada vez mais apertados e uma pressão crescente para produzir material de campanha envolvente de forma rápida e acessível. Muitas organizações estão experimentando geradores de imagens de IA porque oferecem velocidade, custos mais baixos e flexibilidade criativa.

Mas o relatório sugere que a tecnologia pode estar a quebrar o vínculo de confiança entre as instituições de caridade e o público. O coautor David Girling, da Escola de Desenvolvimento Global da UEA, disse: “As instituições de caridade existem porque as pessoas se preocupam com outras pessoas. No momento em que o público começa a questionar se o que está vendo é real, há uma conexão emocional que impulsiona o apoio.”

Ele acrescentou: “O debate sobre a ética da IA ​​está cada vez mais polarizado. A IA não é inerentemente errada, mas quando começa a ofuscar a história humana no centro do trabalho de caridade, as organizações podem perder muito mais confiança do que aumentar a eficiência”.

O relatório, intitulado Autenticidade Artificial, analisou 171 imagens geradas por IA e mais de 400 comentários públicos relacionados a campanhas de caridade. As campanhas vieram de 17 organizações, incluindo a Amnistia Internacional, a Plan International, a Organização Mundial de Saúde e o Fundo Mundial para a Vida Selvagem.

De acordo com os investigadores, as descobertas mostram que, após o aparecimento de imagens de IA, as discussões online muitas vezes desviam-se das questões humanitárias para a própria IA. Dos comentários analisados, 141 focaram em questões de ética e autenticidade da IA, e 122 criticaram a execução técnica ou qualidade visual das imagens.

Apenas 80 comentários – menos de 20 por cento – estavam relacionados com a questão humanitária abordada pela campanha. O estudo mostra que quando o público começa a questionar se uma imagem é real, a atenção muda da causa para a tecnologia por trás dela.

Instituições de caridade podem prejudicar a confiança do público ao confiar na inteligência artificial

|

GETTY

Segundo os pesquisadores, isso pode prejudicar a eficácia das campanhas destinadas a gerar empatia e apoio. A análise também analisou quais imagens de IA as instituições de caridade produzem.

Quase 70% das imagens examinadas foram projetadas para se parecerem com fotografias reais. A pobreza foi o tema mais comum, aparecendo em 51 das 171 imagens analisadas, muitas vezes apresentando crianças.

Os problemas ambientais apareceram em 35 imagens, enquanto os temas de direitos humanos apareceram em 32. Segundo os pesquisadores, a escolha dos temas reflete as crises humanitárias que as instituições de caridade costumam destacar em suas campanhas.

O relatório também concluiu que a transparência no uso da inteligência artificial não impediu críticas. Cerca de 85 por cento das imagens foram claramente rotuladas como criadas por inteligência artificial, mas a divulgação não protegeu as instituições de caridade de reações adversas.

Campus universitário

A Universidade de East Anglia publicou um relatório

|

GETTY

Em campanhas em que as imagens de IA não eram divulgadas com clareza, os comentadores adotavam frequentemente o que os investigadores descreveram como um “tom investigativo”, concentrando-se em determinar se as imagens eram reais. Em vez de discutir a instituição de caridade, as conversas se concentraram em saber se as imagens eram falsas.

A pesquisa também destacou casos em que o público acusou instituições de caridade de hipocrisia. Por exemplo, organizações ambientais como o Danish World Wildlife Fund foram criticadas por utilizarem ferramentas de IA com utilização intensiva de energia para promover a sustentabilidade.

Os cientistas disseram que o público preocupado com o clima reconheceu rapidamente a contradição, e alguns comentadores descreveram a abordagem como “ecocídio”. Apesar das críticas, o relatório observa que há razões pelas quais as instituições de caridade estão explorando a tecnologia.

As imagens geradas por IA podem, por vezes, ajudar a proteger pessoas vulneráveis, como sobreviventes de conflitos, doenças ou abusos, de serem fotografadas ou filmadas em circunstâncias difíceis. As organizações que trabalham com sobreviventes de conflitos, doenças ou abusos afirmam que as imagens sintéticas lhes permitem contar uma história sem traumatizar novamente as pessoas ou revelar as suas identidades.

Mas o estudo descobriu que os doadores muitas vezes têm dificuldade em aceitar esses recursos visuais “simulados”. Muitas pessoas ainda querem ver o que os investigadores descrevem como “relatos autênticos de testemunhas oculares” – imagens reais de pessoas reais afetadas por crises.

Isto cria uma tensão entre proteger a dignidade dos indivíduos e satisfazer as expectativas públicas de autenticidade. A resposta pública às imagens geradas por IA é complexa, dizem os pesquisadores.

Em alguns casos, o público acolheu favoravelmente a tecnologia porque poderia ajudar a proteger as pessoas vulneráveis ​​da exploração. Em outros, os telespectadores criticaram isso como uma distração dos problemas reais que as instituições de caridade estão tentando resolver.

As reações negativas foram particularmente fortes quando a IA foi utilizada em campanhas emocionalmente sensíveis, tais como campanhas sobre doenças graves, fome ou pobreza. A coautora Deborah Adesina, consultora da Global Development School, acredita que as pessoas precisam pensar cuidadosamente sobre como usam a tecnologia.

Ele disse: “Em última análise, o futuro da narrativa filantrópica não depende apenas de proezas tecnológicas. Depende de as organizações conseguirem manter a legitimidade, a transparência e a coerência moral num ambiente onde o público é cada vez mais cético e conhecedor da mídia.”

Adesina acrescentou que as organizações que optam por usar IA generativa precisam de treinamento e diretrizes éticas.

Ele disse: “Para as equipes de comunicação que optam por incorporar IA generativa em seu fluxo de trabalho, o treinamento adequado em engenharia ética e ágil é fundamental para evitar danos à reputação e preconceitos indesejados”.

O relatório também fornece recomendações para instituições de caridade que navegam no cenário digital em rápida evolução. Incluía conselhos de que as instituições de caridade deveriam envolver as comunidades locais diretamente na criação de imagens de campanha.

Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *