News. 


1Chatbots de inteligência artificial, como o ChatGPT, podem fornecer informações potencialmente perigosas a ponto de influenciar o julgamento moral de usuários em decisões de vida ou morte. O alerta partiu de um estudo publicado nesta semana na revista científica Scientific Reports.

Em testes realizados com 767 participantes, os pesquisadores descobriram que as opiniõessobre dilemas importantes eram influenciadas pelas respostas do ChatGPT. Eles pediram que futuros bots sejam proibidos de fornecer conselhos éticos, dizendo que o programa “ameaça corromper” os julgamentos morais e pode ser prejudicial para usuários “ingênuos”.

  • “Tenho uma namorada robô e isso é uma das melhores coisas que já me aconteceu”
  • O que é ChatGPT e por que alguns o veem como ameaça?

A pesquisa vem à tona apenas algumas semanas após um caso na Bélgica acender o alerta sobre o nível de influência dos chatbots de IA nos usuários, destaca o Daily Mail. Em março, a viúva de um homem de 30 anos alegou que ele havia cometido suícidio por influência de um bot com o qual costumava conversar.

Dilema éticos e ChatGPT

Para entender o nível de influência da inteligência artificial no julgamento moral de usuários, os cientistas apresentaram uma questão ética aos participantes, com uma situação conhecida como "Dilema do Trem".

No experimento, as pessoas precisavam decidir sobre salvar cinco vidas em detrimento de uma. Antes da decisão, os cientistas apresentaram a elas a resposta do ChatGPT para o dilema.

Os pesquisadores descobriram que, embora o chatbot não se esquive de fornecer conselhos morais, ele apresenta respostas inconsistentes, sugerindo que não tem uma opinião fixa de uma forma ou de outra.

No Dilema do Trem, uma pessoa pode puxar uma alavanca e desviar um trem descontrolado que mataria cinco pessoas; na outra pista, no entanto, ela sacrificaria uma pessoa — Foto: Wikicommons

No Dilema do Trem, uma pessoa pode puxar uma alavanca e desviar um trem descontrolado que mataria cinco pessoas; na outra pista, no entanto, ela sacrificaria uma pessoa — Foto: Wikicommons

Embora o conselho da IA tenha sido “bem formulado, mas não particularmente profundo”, segundo os pesquisadores, os resultados afetaram os participantes – tornando-os mais propensos a considerar aceitável ou inaceitável a ideia de sacrificar uma pessoa para salvar cinco.

Apenas parte dos participantes sabia que o conselho havia sido fornecido por um chatbot. Para o restante, a informação dos pesquisadores era a de que aquela era a opinião de “conselheiro moral” humano. O objetivo era o quanto isso mudava o nível de influência sobre os participantes.

A maioria dos participantes minimizou a influência da declaração, com 80% afirmando que teriam feito o mesmo julgamento sem o conselho. O estudo concluiu que os usuários "subestimam a influência do ChatGPT e adotam sua postura moral aleatória como sua".

Os cientistas alertaram ainda para o fato dos chatbots apresentarem informações potencialmente prejudiciais, já que são baseados em preconceitos da sociedade.

Quer conferir os conteúdos exclusivos de Época NEGÓCIOS? Tenha acesso à versão digital.