Sunday, January 12, 2025
HomeSocial Media & InternetFuncionários da OpenAI dizem que a empresa está negligenciando os protocolos de...

Funcionários da OpenAI dizem que a empresa está negligenciando os protocolos de segurança: relatório

A OpenAI tem estado na vanguarda do boom da inteligência artificial (IA) com seu chatbot ChatGPT e Large Language Models (LLMs) avançados, mas o histórico de segurança da empresa gerou preocupações. Um novo relatório alegou que a empresa de IA está acelerando e negligenciando os protocolos de segurança e proteção ao desenvolver novos modelos. O relatório destacou que a negligência ocorreu antes do lançamento do mais recente modelo GPT-4 Omni (ou GPT-4o) da OpenAI.

Alguns funcionários anônimos da OpenAI assinaram recentemente uma carta aberta expressando preocupações sobre a falta de supervisão em torno da construção de sistemas de IA. Notavelmente, a empresa de IA também criou um novo Safety and Security Committee composto por membros selecionados do conselho e diretores para avaliar e desenvolver novos protocolos.

OpenAI estaria negligenciando protocolos de segurança

No entanto, três funcionários não identificados da OpenAI contado O Washington Post disse que a equipe se sentiu pressionada a acelerar um novo protocolo de testes que foi projetado para “evitar que o sistema de IA causasse danos catastróficos, para cumprir a data de lançamento em maio definida pelos líderes da OpenAI”.

Notavelmente, esses protocolos existem para garantir que os modelos de IA não forneçam informações prejudiciais, como como construir armas químicas, biológicas, radiológicas e nucleares (CBRN) ou auxiliar na execução de ataques cibernéticos.

Além disso, o relatório destacou que um incidente semelhante ocorreu antes do lançamento do GPT-4o, que a empresa apregoou como seu modelo de IA mais avançado. “Eles planejaram a festa de lançamento antes de saber se era seguro lançar. Nós basicamente falhamos no processo”, o relatório citou um funcionário não identificado da OpenAI dizendo.

Esta não é a primeira vez que funcionários da OpenAI sinalizam um aparente desrespeito aos protocolos de segurança e proteção na empresa. No mês passado, vários funcionários antigos e atuais da OpenAI e do Google DeepMind assinaram uma carta aberta expressando preocupações sobre a falta de supervisão na construção de novos sistemas de IA que podem representar grandes riscos.

A carta pedia intervenção governamental e mecanismos regulatórios, bem como fortes proteções aos denunciantes a serem oferecidas pelos empregadores. Dois dos três padrinhos da IA, Geoffrey Hinton e Yoshua Bengio, endossaram a carta aberta.

Em maio, a OpenAI anunciou a criação de um novo Comitê de Segurança e Proteção, que foi encarregado de avaliar e desenvolver ainda mais os processos e salvaguardas da empresa de IA em “decisões críticas de segurança e proteção para projetos e operações da OpenAI”. A empresa também compartilhou recentemente novas diretrizes para construir um modelo de IA responsável e ético, denominado Model Spec.

source – www.gadgets360.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

Sandy J
Sandy J
Hi thanks for visiting Asia First News, I am Sandy I will update the daily World and Music News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

Mais popular