A OpenAI alertou na quinta-feira que o recurso Voice Mode lançado recentemente para o ChatGPT pode resultar em usuários formando relacionamentos sociais com o modelo de inteligência artificial (IA). As informações faziam parte do System Card da empresa para GPT-4o, que é uma análise detalhada sobre os riscos potenciais e possíveis salvaguardas do modelo de IA que a empresa testou e explorou. Entre muitos riscos, um era o potencial de pessoas antropomorfizarem o chatbot e desenvolverem apego a ele. O risco foi adicionado após notar sinais disso durante os testes iniciais.
O modo de voz do ChatGPT pode tornar os usuários apegados à IA
Em um documento técnico detalhado denominado System Card, a OpenAI destacou os impactos sociais associados ao GPT-4o e os novos recursos alimentados pelo modelo de IA que ele lançou até agora. A empresa de IA destacou a antropomorfização, que significa essencialmente atribuir características ou comportamentos humanos a entidades não humanas.
A OpenAI levantou a preocupação de que, como o Modo de Voz pode modular a fala e expressar emoções semelhantes a um ser humano real, isso pode resultar em usuários desenvolvendo um apego a ele. Os medos também não são infundados. Durante seus testes iniciais, que incluíram red-teaming (usando um grupo de hackers éticos para simular ataques ao produto para testar vulnerabilidades) e testes internos de usuários, a empresa encontrou casos em que alguns usuários estavam formando um relacionamento social com a IA.
Em um caso específico, ele encontrou um usuário expressando vínculos compartilhados e dizendo “Este é nosso último dia juntos” para a IA. A OpenAI disse que há uma necessidade de investigar se esses sinais podem se desenvolver em algo mais impactante ao longo de um período mais longo de uso.
Uma grande preocupação, se os medos forem verdadeiros, é que o modelo de IA pode impactar as interações entre humanos, à medida que as pessoas se acostumam mais a socializar com o chatbot. A OpenAI disse que, embora isso possa beneficiar indivíduos solitários, pode impactar negativamente relacionamentos saudáveis.
Outra questão é que interações estendidas entre IA e humanos podem influenciar normas sociais. Destacando isso, a OpenAI deu o exemplo de que com o ChatGPT, os usuários podem interromper a IA a qualquer momento e “pegar o microfone”, o que é um comportamento antinormativo quando se trata de interações entre humanos.
Além disso, há implicações mais amplas de humanos forjando laços com IA. Uma dessas questões é a persuasão. Embora a OpenAI tenha descoberto que a pontuação de persuasão dos modelos não era alta o suficiente para ser preocupante, isso pode mudar se o usuário começar a confiar na IA.
No momento, a empresa de IA não tem solução para isso, mas planeja observar o desenvolvimento mais a fundo. “Pretendemos estudar mais a fundo o potencial de confiança emocional e as maneiras pelas quais a integração mais profunda dos muitos recursos do nosso modelo e sistemas com a modalidade de áudio pode direcionar o comportamento”, disse a OpenAI.
source – www.gadgets360.com