As pessoas estão expressando preocupação com o fato de os chatbots de IA substituirem ou atrofiarem a inteligência humana.
Por exemplo, os chatbots podem escrever uma redação inteira em segundos, levantando preocupações sobre os alunos colando e não aprendendo a escrever corretamente. Esses temores levaram até mesmo alguns distritos escolares a bloquear o acesso quando o ChatGPT foi lançado inicialmente.
Agora, não só muitas dessas escolas decidiram desbloquear a tecnologia, como também algumas instituições de ensino superior têm fornecido as suas ofertas académicas a cursos relacionados com IA.
Além disso: a IA generativa pode ser o assistente acadêmico que um aluno carente precisa
Outra preocupação com os chatbots de IA é a possível disseminação de desinformação. ChatGPT diz: “Minhas respostas não devem ser consideradas fatos e sempre incentivo as pessoas a verificarem qualquer informação que recebam de mim ou de qualquer outra fonte”. A OpenAI também observa que o ChatGPT às vezes escreve “respostas que parecem plausíveis, mas incorretas ou sem sentido”.
Por último, existem preocupações éticas e de privacidade em relação às informações nas quais o ChatGPT foi treinado. A OpenAI vasculhou a Internet para treinar o chatbot sem pedir permissão aos proprietários do conteúdo para usar seu conteúdo, o que levanta muitas preocupações com direitos autorais e propriedade intelectual.
Também existem preocupações de privacidade em relação aos modelos generativos de IA que usam seus dados para treinar ainda mais seus modelos, o que é uma prática comum para melhoria. OpenAI permite desligar o treinamento nas configurações do ChatGPT.
Então, o ChatGPT é seguro? Se sua principal preocupação é a privacidade, a OpenAI implementou várias opções para dar aos usuários a tranquilidade de saber que seus dados não serão usados para treinar modelos posteriormente. A empresa ainda permite que os usuários desliguem o histórico de bate-papo. Mas muitas questões devem ser esclarecidas se você estiver preocupado com problemas morais e éticos.
source – www.zdnet.com