A OpenAI sofreu uma violação de segurança em 2023, mas não divulgou o incidente fora da empresa, informou o New York Times em 4 de julho.
Executivos da OpenAI supostamente divulgaram o incidente internamente durante uma reunião em abril de 2023, mas não o revelaram publicamente porque o invasor não acessou informações sobre clientes ou parceiros.
Além disso, os executivos não consideraram o incidente uma ameaça à segurança nacional porque consideraram o agressor um indivíduo privado sem conexão com um governo estrangeiro. Eles não relataram o incidente ao FBI ou outras agências de aplicação da lei.
O invasor supostamente acessou os sistemas internos de mensagens da OpenAI e roubou detalhes sobre os designs de tecnologia de IA da empresa de conversas de funcionários em um fórum online. Eles não acessaram os sistemas onde a OpenAI “abriga e constrói sua inteligência artificial”, nem acessaram o código.
O New York Times citou duas pessoas familiarizadas com o assunto como fontes.
Ex-funcionário expressa preocupação
O New York Times também se referiu a Leopold Aschenbrenner, um ex-pesquisador da OpenAI que enviou um memorando aos diretores da OpenAI após o incidente e pediu medidas para impedir que a China e países estrangeiros roubassem segredos da empresa.
O New York Times disse que Aschenbrenner fez alusão ao incidente em um podcast recente.
A representante da OpenAI, Liz Bourgeois, disse que a empresa apreciou as preocupações de Aschenbrenner e expressou apoio ao desenvolvimento seguro de AGI, mas contestou detalhes. Ela disse:
“Discordamos de muitos dos [Aschenbrenner’s claims] … Isso inclui suas caracterizações de nossa segurança, notadamente este incidente, que abordamos e compartilhamos com nosso conselho antes de ele ingressar na empresa.”
Aschenbrenner disse que a OpenAI o demitiu por vazar outras informações e por motivos políticos. Bourgeois disse que as preocupações de Aschenbrenner não levaram à sua separação.
O chefe de segurança da OpenAI, Matt Knight, enfatizou os compromissos de segurança da empresa. Ele disse ao New York Times que a empresa “começou a investir em segurança anos antes do ChatGPT”. Ele admitiu que o desenvolvimento de IA “vem com alguns riscos, e precisamos descobri-los”.
O New York Times revelou um aparente conflito de interesses ao notar que processou a OpenAI e a Microsoft por suposta violação de direitos autorais de seu conteúdo. A OpenAI acredita que o caso não tem mérito.
Mencionado neste artigo
source – cryptoslate.com