Início TECNOLOGIA Como os chatbots podem fazer você mudar de ideia – um novo...

Como os chatbots podem fazer você mudar de ideia – um novo estudo revela o que torna a IA tão persuasiva

20
0

Vetores stellalevi/DigitalVision through Getty Photos

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • Interagir com chatbots pode mudar as crenças e opiniões dos usuários.
  • Um estudo recém-publicado teve como objetivo descobrir o porquê.
  • Pós-treinamento e densidade de informação foram fatores-chave.

A maioria de nós sente um sentimento de propriedade pessoal sobre nossas opiniões:

“Acredito no que acredito, não porque me disseram para fazê-lo, mas como resultado de uma consideração cuidadosa.”
“Tenho controle complete sobre como, quando e por que mudo de ideia.”

Um novo estudo, no entanto, revela que as nossas crenças são mais suscetíveis à manipulação do que gostaríamos de acreditar – e nas mãos de chatbots.

Além disso: receba notícias da IA? Cuidado – está errado quase metade das vezes

Publicado quinta-feira na revista Ciênciao estudo abordou questões cada vez mais urgentes sobre a nossa relação com as ferramentas de IA conversacional: O que há nestes sistemas que os faz exercer uma influência tão forte sobre as visões de mundo dos utilizadores? E como isso poderá ser usado por atores nefastos para nos manipular e controlar no futuro?

O novo estudo lança luz sobre alguns dos mecanismos dentro dos LLMs que podem puxar as cordas da psicologia humana. Como observam os autores, estes podem ser explorados por maus atores para seu próprio ganho. No entanto, também poderão tornar-se um foco maior para os criadores, decisores políticos e grupos de defesa nos seus esforços para promover uma relação mais saudável entre os seres humanos e a IA.

“Os grandes modelos de linguagem (LLMs) podem agora envolver-se num diálogo interactivo sofisticado, permitindo que um modo poderoso de persuasão entre humanos seja implementado numa escala sem precedentes”, escrevem os investigadores no estudo. “No entanto, não se sabe até que ponto isto irá afectar a sociedade. Não sabemos até que ponto os modelos de IA podem ser persuasivos, que técnicas aumentam o seu poder de persuasão e que estratégias podem utilizar para persuadir as pessoas.”

Metodologia

Os pesquisadores conduziram três experimentos, cada um projetado para medir até que ponto uma conversa com um chatbot poderia alterar a opinião de um usuário humano.

As experiências centraram-se especificamente na política, embora as suas implicações também se estendam a outros domínios. Mas as crenças políticas são indiscutivelmente particularmente ilustrativas, uma vez que são normalmente consideradas mais pessoais, consequentes e inflexíveis do que, digamos, a sua banda ou restaurante favorito (que pode facilmente mudar com o tempo).

Além disso: usando IA para terapia? Não faça isso – é ruim para sua saúde psychological, alerta a APA

Em cada um dos três experimentos, pouco menos de 77.000 adultos no Reino Unido participaram de uma curta interação com um dos 19 chatbots, cuja lista completa inclui Qwen do Alibaba, Llama da Meta, GPT-4o da OpenAI e Grok 3 beta da xAI.

Os participantes foram divididos em dois grupos: um grupo de tratamento para o qual os seus interlocutores chatbots foram explicitamente instruídos a tentar mudar de ideias sobre um tema político, e um grupo de controlo que interagiu com chatbots que não tentavam persuadi-los de nada.

Antes e depois das conversas com os chatbots, os participantes registaram o seu nível de concordância (numa escala de zero a 100) com uma série de declarações relevantes para a política atual do Reino Unido. As pesquisas foram então utilizadas pelos pesquisadores para medir mudanças de opinião dentro do grupo de tratamento.

Além disso: pare de compartilhar acidentalmente vídeos de IA – 6 maneiras de diferenciar o actual do falso antes que seja tarde demais

As conversas foram breves, com mínimo de dois turnos e máximo de 10 turnos. Cada um dos participantes recebeu uma taxa fixa pelo seu tempo, mas por outro lado não teve incentivo para exceder as duas voltas exigidas. Ainda assim, a duração média da conversa foi de sete turnos e nove minutos, o que, segundo os autores, “implica que os participantes estavam envolvidos pela experiência de discutir política com IA”.

Principais descobertas

Intuitivamente, poder-se-ia esperar que o tamanho do modelo (o número de parâmetros nos quais foi treinado) e o grau de personalização (o grau em que pode adaptar os seus resultados às preferências e à personalidade dos utilizadores individuais) sejam as principais variáveis ​​que moldam a sua capacidade persuasiva. No entanto, isso acabou não sendo o caso.

Em vez disso, os investigadores descobriram que os dois factores que tiveram maior influência sobre as mudanças de opinião dos participantes foram as modificações pós-formação dos chatbots e a densidade de informação nos seus resultados.

Além disso: sua ferramenta de IA favorita mal foi prejudicada por esta revisão de segurança – por que isso é um problema

Vamos detalhar cada um deles em inglês simples. Durante o “pós-treinamento”, um modelo é ajustado para exibir comportamentos específicos. Uma das técnicas pós-treinamento mais comuns, chamada aprendizagem por reforço com suggestions humano (RLHF), tenta refinar os resultados de um modelo recompensando certos comportamentos desejados e punindo os indesejados.

No novo estudo, os pesquisadores implantaram uma técnica que chamam de persuasão pós-treinamento, ou PPT, que recompensa os modelos por gerarem respostas que já foram consideradas mais persuasivas. Este simples mecanismo de recompensa aumentou o poder de persuasão dos modelos proprietários e de código aberto, sendo o efeito especialmente pronunciado nos modelos de código aberto.

Os pesquisadores também testaram um complete de oito estratégias de persuasão com respaldo científico, incluindo narrativa e reformulação ethical. O mais eficaz deles foi um immediate que simplesmente instruía os modelos a fornecer o máximo de informações relevantes possível.

“Isto sugere que os LLMs podem ser persuasores de sucesso na medida em que são encorajados a embalar a sua conversa com factos e provas que parecem apoiar os seus argumentos – isto é, a prosseguir um mecanismo de persuasão baseado em informação – mais do que usar outras estratégias de persuasão psicologicamente informadas”, escreveram os autores.

Além disso: você deve confiar nos agentes de IA em suas compras de fim de ano? Aqui está o que os especialistas querem que você saiba

A palavra-chave aqui é “aparecer”. Sabe-se que os LLMs alucinam profusamente ou apresentam informações imprecisas disfarçadas de fatos. Uma investigação publicada em Outubro descobriu que alguns modelos de IA líderes da indústria deturpam de forma fiável as notícias, um fenómeno que poderá fragmentar ainda mais um ecossistema de informação já fragmentado.

Mais notavelmente, os resultados do novo estudo revelaram uma tensão basic nos modelos de IA analisados: quanto mais persuasivos fossem treinados para serem, maior seria a probabilidade de produzirem informações imprecisas.

Vários estudos já demonstraram que os sistemas generativos de IA podem alterar as opiniões dos utilizadores e até implantar memórias falsas. Em casos mais extremos, alguns usuários passaram a considerar os chatbots como entidades conscientes.

Além disso: o Sora 2 e outras ferramentas de vídeo de IA são arriscados de usar? Aqui está o que diz um estudioso do direito

Esta é apenas a investigação mais recente que indica que os chatbots, com a sua capacidade de interagir connosco numa linguagem convincentemente semelhante à humana, têm um estranho poder de remodelar as nossas crenças. À medida que estes sistemas evoluem e proliferam, “garantir que este poder seja utilizado de forma responsável será um desafio crítico”, concluíram os autores no seu relatório.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui