Início TECNOLOGIA Permitir que a IA gerencie seu dinheiro pode ser uma aposta real,...

Permitir que a IA gerencie seu dinheiro pode ser uma aposta real, alertam os pesquisadores

23
0

 

 

Martin POKORNY/500px via Getty

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • Estudo sugere que a IA pode adotar o “vício” do jogo.
  • Os modelos autónomos são demasiado arriscados para transações financeiras de alto nível.
  • O comportamento da IA ​​pode ser controlado com proteções programáticas.

Até certo ponto, confiar demais na inteligência artificial pode ser uma aposta. Além disso, muitos sites de jogos de azar online empregam IA para gerenciar apostas e fazer previsões – e potencialmente contribuem para o vício do jogo. Agora, um estudo recente sugere que a IA é capaz de realizar alguns jogos de azar por si só, o que pode ter implicações para aqueles que constroem e implementam sistemas e serviços alimentados por IA que envolvem aplicações financeiras.

Em essência, com margem de manobra suficiente, a IA é capaz de adotar tendências patológicas.

“Grandes modelos de linguagem podem exibir padrões comportamentais semelhantes aos vícios humanos em jogos de azar”, concluído uma equipe de pesquisadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia do Sul. Este pode ser um problema em que os LLMs desempenham um papel mais importante na tomada de decisões financeiras em áreas como a gestão de activos e o comércio de mercadorias.

Além disso: Até logo, SaaS: por que a IA significa o fim das licenças de software por usuário – e o que vem a seguir

Em experimentos com máquinas caça-níqueis, os pesquisadores identificaram “características do vício humano em jogos de azar, como ilusão de controle, falácia do jogador e perseguição à perda”. Quanto mais autonomia for concedida às aplicações ou agentes de IA, e quanto mais dinheiro envolvido, maior será o risco.

“As taxas de falência aumentaram substancialmente juntamente com o aumento do comportamento irracional”, descobriram. “Os LLMs podem internalizar preconceitos cognitivos e mecanismos de tomada de decisão semelhantes aos humanos, além de simplesmente imitar padrões de dados de treinamento.”

Isto aborda a questão mais ampla de saber se a IA está pronta para a tomada de decisões autônoma ou quase autônoma. Neste ponto, a IA não está pronta, disse Andy Thurai, CTO de campo da Cisco e ex-analista do setor.

 

Thurai sublinhou que “LLMs e IA são especificamente programados para realizar certas ações com base em dados e fatos e não em emoções”.

Isso não significa que as máquinas atuem com bom senso, acrescentou Thurai. “Se os LLMs começaram a distorcer a sua tomada de decisão com base em certos padrões ou ações comportamentais, então isso poderia ser perigoso e precisa ser mitigado.”

Como proteger

A boa notícia é que a mitigação pode ser muito mais simples do que ajudar um ser humano com problemas de jogo. Um viciado em jogos de azar não tem necessariamente proteções programáticas, exceto quanto aos limites de fundos. Os modelos autônomos de IA podem incluir “parâmetros que precisam ser definidos”, explicou ele. “Sem isso, poderia entrar num ciclo perigoso ou em modelos baseados em acção-reacção se apenas actuassem sem raciocínio. O ‘raciocínio’ poderia ser que eles têm um certo limite para jogar, ou actuam apenas se os sistemas empresariais estiverem a exibir determinado comportamento.”

A conclusão do relatório do Instituto Gwangju é a necessidade de um forte design de segurança de IA em aplicações financeiras que ajude a evitar que a IA dê errado com o dinheiro de outras pessoas. Isto inclui manter uma estreita supervisão humana nos ciclos de tomada de decisão, bem como reforçar a governação para decisões mais sofisticadas.

A pesquisa valida o fato de que as empresas “precisam não apenas de governança, mas também de humanos envolvidos em operações de alto risco e alto valor”, disse Thurai. “Embora as operações de baixo risco e baixo valor possam ser completamente automatizadas, elas também precisam ser revisadas por humanos ou por um agente diferente para verificações e equilíbrios.”

Além disso: a IA está se tornando introspectiva – e isso ‘deve ser monitorado com cuidado’, alerta Anthropic

Se um LLM ou agente “exibir um comportamento estranho, o LLM controlador pode interromper as operações ou alertar os humanos sobre tal comportamento”, disse Thurai. “Não fazer isso pode levar a momentos do Exterminador do Futuro.”

Manter o controle dos gastos baseados em IA também exige reduzir a complexidade das solicitações.

“À medida que as instruções se tornam mais detalhadas e em camadas, elas orientam os modelos em direção a padrões de jogo mais extremos e agressivos”, observaram os pesquisadores do Instituto Gwangju. “Isso pode ocorrer porque os componentes adicionais, embora não instruam explicitamente a tomada de riscos, aumentam a carga cognitiva ou introduzem nuances que levam os modelos a adotar heurísticas mais simples e mais vigorosas – apostas maiores, perseguição de perdas. A complexidade imediata é o principal impulsionador da intensificação de comportamentos de jogo nesses modelos.”

O software em geral “não está pronto para operações totalmente autônomas, a menos que haja supervisão humana”, destacou Thurai. “O software enfrenta condições de corrida há anos que precisam ser mitigadas durante a construção de sistemas semiautônomos, caso contrário, poderia levar a resultados imprevisíveis.”

avots