A OpenAI tem estado na vanguarda do boom da inteligência artificial (IA) com seu chatbot ChatGPT e Large Language Models (LLMs) avançados, mas o histórico de segurança da empresa gerou preocupações. Um novo relatório alegou que a empresa de IA está acelerando e negligenciando os protocolos de segurança e proteção ao desenvolver novos modelos. O relatório destacou que a negligência ocorreu antes do lançamento do mais recente modelo GPT-4 Omni (ou GPT-4o) da OpenAI.
Alguns funcionários anônimos da OpenAI assinaram recentemente uma carta aberta expressando preocupações sobre a falta de supervisão em torno da construção de sistemas de IA. Notavelmente, a empresa de IA também criou um novo Safety and Security Committee composto por membros selecionados do conselho e diretores para avaliar e desenvolver novos protocolos.
OpenAI estaria negligenciando protocolos de segurança
No entanto, três funcionários não identificados da OpenAI contado O Washington Post disse que a equipe se sentiu pressionada a acelerar um novo protocolo de testes que foi projetado para “evitar que o sistema de IA causasse danos catastróficos, para cumprir a data de lançamento em maio definida pelos líderes da OpenAI”.
Notavelmente, esses protocolos existem para garantir que os modelos de IA não forneçam informações prejudiciais, como como construir armas químicas, biológicas, radiológicas e nucleares (CBRN) ou auxiliar na execução de ataques cibernéticos.
Além disso, o relatório destacou que um incidente semelhante ocorreu antes do lançamento do GPT-4o, que a empresa apregoou como seu modelo de IA mais avançado. “Eles planejaram a festa de lançamento antes de saber se era seguro lançar. Nós basicamente falhamos no processo”, o relatório citou um funcionário não identificado da OpenAI dizendo.
Esta não é a primeira vez que funcionários da OpenAI sinalizam um aparente desrespeito aos protocolos de segurança e proteção na empresa. No mês passado, vários funcionários antigos e atuais da OpenAI e do Google DeepMind assinaram uma carta aberta expressando preocupações sobre a falta de supervisão na construção de novos sistemas de IA que podem representar grandes riscos.
A carta pedia intervenção governamental e mecanismos regulatórios, bem como fortes proteções aos denunciantes a serem oferecidas pelos empregadores. Dois dos três padrinhos da IA, Geoffrey Hinton e Yoshua Bengio, endossaram a carta aberta.
Em maio, a OpenAI anunciou a criação de um novo Comitê de Segurança e Proteção, que foi encarregado de avaliar e desenvolver ainda mais os processos e salvaguardas da empresa de IA em “decisões críticas de segurança e proteção para projetos e operações da OpenAI”. A empresa também compartilhou recentemente novas diretrizes para construir um modelo de IA responsável e ético, denominado Model Spec.
source – www.gadgets360.com