OpenAI não revelou violação de segurança em 2023 – NYT

A OpenAI sofreu uma violação de segurança em 2023, mas não divulgou o incidente fora da empresa, informou o New York Times em 4 de julho.

Executivos da OpenAI supostamente divulgaram o incidente internamente durante uma reunião em abril de 2023, mas não o revelaram publicamente porque o invasor não acessou informações sobre clientes ou parceiros.

Além disso, os executivos não consideraram o incidente uma ameaça à segurança nacional porque consideraram o agressor um indivíduo privado sem conexão com um governo estrangeiro. Eles não relataram o incidente ao FBI ou outras agências de aplicação da lei.

O invasor supostamente acessou os sistemas internos de mensagens da OpenAI e roubou detalhes sobre os designs de tecnologia de IA da empresa de conversas de funcionários em um fórum online. Eles não acessaram os sistemas onde a OpenAI “abriga e constrói sua inteligência artificial”, nem acessaram o código.

O New York Times citou duas pessoas familiarizadas com o assunto como fontes.

Ex-funcionário expressa preocupação

O New York Times também se referiu a Leopold Aschenbrenner, um ex-pesquisador da OpenAI que enviou um memorando aos diretores da OpenAI após o incidente e pediu medidas para impedir que a China e países estrangeiros roubassem segredos da empresa.

O New York Times disse que Aschenbrenner fez alusão ao incidente em um podcast recente.

A representante da OpenAI, Liz Bourgeois, disse que a empresa apreciou as preocupações de Aschenbrenner e expressou apoio ao desenvolvimento seguro de AGI, mas contestou detalhes. Ela disse:

“Discordamos de muitos dos [Aschenbrenner’s claims] … Isso inclui suas caracterizações de nossa segurança, notadamente este incidente, que abordamos e compartilhamos com nosso conselho antes de ele ingressar na empresa.”

Aschenbrenner disse que a OpenAI o demitiu por vazar outras informações e por motivos políticos. Bourgeois disse que as preocupações de Aschenbrenner não levaram à sua separação.

O chefe de segurança da OpenAI, Matt Knight, enfatizou os compromissos de segurança da empresa. Ele disse ao New York Times que a empresa “começou a investir em segurança anos antes do ChatGPT”. Ele admitiu que o desenvolvimento de IA “vem com alguns riscos, e precisamos descobri-los”.

O New York Times revelou um aparente conflito de interesses ao notar que processou a OpenAI e a Microsoft por suposta violação de direitos autorais de seu conteúdo. A OpenAI acredita que o caso não tem mérito.

Mencionado neste artigo

source – cryptoslate.com