A empresa de inteligência artificial OpenAI apresentou uma estrutura para abordar a segurança em seus modelos mais avançados, incluindo permitir que o conselho reverta decisões de segurança, de acordo com um plano publicado em seu site na segunda-feira.
A OpenAI, apoiada pela Microsoft, só implementará a sua tecnologia mais recente se for considerada segura em áreas específicas, como segurança cibernética e ameaças nucleares. A empresa também está criando um grupo consultivo para revisar relatórios de segurança e enviá-los aos executivos e ao conselho da empresa. Embora os executivos tomem decisões, o conselho pode reverter essas decisões.
Desde o lançamento do ChatGPT, há um ano, os perigos potenciais da IA têm sido uma prioridade tanto para os investigadores de IA como para o público em geral. A tecnologia de IA generativa deslumbrou os utilizadores com a sua capacidade de escrever poesia e ensaios, mas também suscitou preocupações de segurança com o seu potencial para espalhar desinformação e manipular humanos.
Em abril, um grupo de líderes e especialistas da indústria de IA assinou uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas mais poderosos que o GPT-4 da OpenAI, citando riscos potenciais para a sociedade. Uma sondagem de Maio da Reuters/Ipsos revelou que mais de dois terços dos americanos estão preocupados com os possíveis efeitos negativos da IA e 61 por cento acreditam que esta poderá ameaçar a civilização.
No início deste mês, a OpenAI adiou o lançamento de sua loja GPT personalizada até o início de 2024. A OpenAI apresentou os GPTs e a loja personalizados durante sua primeira conferência de desenvolvedores em novembro. A empresa continua a “fazer melhorias” nos GPTs com base no feedback dos clientes.
No mês passado, a OpenAI também passou por turbulências quando seu conselho demitiu o CEO Sam Altman. Altman então retornou à empresa dias após sua demissão, enquanto o conselho era reformulado.
©ThomsonReuters 2023
source – www.gadgets360.com