A Microsoft impediu brevemente que seus funcionários usassem ChatGPT e outras ferramentas de inteligência artificial (IA) em 9 de novembro, informou a CNBC no mesmo dia.
A CNBC afirmou ter visto uma captura de tela indicando que o chatbot com tecnologia de IA, ChatGPT, estava inacessível nos dispositivos corporativos da Microsoft na época.
A Microsoft também atualizou seu site interno, afirmando que, devido a questões de segurança e dados, “uma série de ferramentas de IA não estão mais disponíveis para uso dos funcionários”.
Esse aviso aludiu aos investimentos da Microsoft na OpenAI, controladora do ChatGPT, bem como às próprias salvaguardas integradas do ChatGPT. No entanto, alertou os funcionários da empresa contra a utilização do serviço e de seus concorrentes, conforme continuava a mensagem:
“[ChatGPT] é… um serviço externo de terceiros… Isso significa que você deve ter cuidado ao usá-lo devido aos riscos de privacidade e segurança. Isso também se aplica a quaisquer outros serviços externos de IA, como Midjourney ou Replika.”
A CNBC disse que a Microsoft também nomeou brevemente a ferramenta de design gráfico com tecnologia de IA como Canva em seu aviso, embora posteriormente tenha removido essa linha da mensagem.
Microsoft bloqueou serviços acidentalmente
A CNBC disse que a Microsoft restaurou o acesso ao ChatGPT depois de publicar a cobertura do incidente. Um representante da Microsoft disse à CNBC que a empresa ativou involuntariamente a restrição para todos os funcionários enquanto testava sistemas de controle de endpoint, projetados para conter ameaças à segurança.
O representante disse que a Microsoft incentiva seus funcionários a usarem o ChatGPT Enterprise e seu próprio Bing Chat Enterprise, observando que esses serviços oferecem um alto grau de privacidade e segurança.
A notícia surge em meio a preocupações generalizadas de privacidade e segurança em torno da IA nos EUA e no exterior. Embora a política restritiva da Microsoft inicialmente parecesse demonstrar a desaprovação da empresa relativamente ao estado actual da segurança da IA, parece que a política é, de facto, um recurso que poderia proteger contra futuros incidentes de segurança.
source – cryptoslate.com