A startup de IA Anthropic está mudando suas políticas para permitir que menores de idade usem seus sistemas generativos de IA – em certas circunstâncias, pelo menos.
Anunciado em uma postagem no blog oficial da empresa na sexta-feira, a Anthropic começará a permitir que adolescentes e pré-adolescentes usem aplicativos de terceiros (mas não seus próprios aplicativos, necessariamente) alimentados por seus modelos de IA, desde que os desenvolvedores desses aplicativos implementem recursos de segurança específicos e divulgar aos usuários quais tecnologias antrópicas eles estão utilizando.
Em um artigo de suporte, a Anthropic lista várias medidas de segurança que os desenvolvedores que criam aplicativos com tecnologia de IA para menores devem incluir, como sistemas de verificação de idade, moderação e filtragem de conteúdo e recursos educacionais sobre o uso “seguro e responsável” de IA para menores. A empresa também afirma que pode disponibilizar “medidas técnicas” destinadas a adaptar experiências de produtos de IA para menores, como um “prompt de sistema de segurança infantil” que os desenvolvedores direcionados a menores seriam obrigados a implementar.
Os desenvolvedores que usam os modelos de IA da Anthropic também terão que cumprir os regulamentos “aplicáveis” de segurança infantil e privacidade de dados, como a Lei de Proteção à Privacidade Online das Crianças (COPPA), a lei federal dos EUA que protege a privacidade online de crianças menores de 13 anos. auditar “periodicamente” os aplicativos quanto à conformidade, suspendendo ou encerrando as contas daqueles que violam repetidamente os requisitos de conformidade, e exigir que os desenvolvedores “declarem claramente” em sites públicos ou em documentação que estão em conformidade.
“Existem certos casos de uso em que as ferramentas de IA podem oferecer benefícios significativos para usuários mais jovens, como preparação para testes ou suporte de tutoria”, escreve a Anthropic no post. “Com isso em mente, nossa política atualizada permite que as organizações incorporem nossa API em seus produtos para menores.”
A mudança de política da Anthropic ocorre no momento em que crianças e adolescentes recorrem cada vez mais a ferramentas generativas de IA para ajudar não apenas nos trabalhos escolares, mas também em questões pessoais, e à medida que fornecedores rivais de IA generativa – incluindo Google e OpenAI – exploram mais casos de uso voltados para crianças. Este ano, a OpenAI formou uma nova equipe para estudar a segurança infantil e anunciou uma parceria com a Common Sense Media para colaborar nas diretrizes de IA para crianças. E o Google disponibilizou seu chatbot Bard, desde então renomeado para Gemini, para adolescentes em inglês em regiões selecionadas.
De acordo com uma pesquisa do Centro para Democracia e Tecnologia, 29% das crianças relatam ter usado IA generativa como o ChatGPT da OpenAI para lidar com ansiedade ou problemas de saúde mental, 22% para problemas com amigos e 16% para conflitos familiares.
No verão passado, escolas e faculdades apressaram-se a proibir aplicações generativas de IA – em particular ChatGPT – devido ao receio de plágio e desinformação. Desde então, alguns reverteram suas proibições. Mas nem todos estão convencidos do potencial positivo da IA generativa, apontando para inquéritos como o do UK Safer Internet Centre, que concluiu que mais de metade das crianças (53%) afirmam ter visto pessoas da sua idade utilizarem a IA generativa de forma negativa – por exemplo, criando informações falsas críveis ou imagens usadas para incomodar alguém (incluindo deepfakes pornográficos).
Os pedidos de diretrizes sobre o uso de IA generativa pelas crianças estão crescendo.
A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) pressionou no final do ano passado para que os governos regulamentassem a utilização de IA generativa na educação, incluindo a implementação de limites de idade para os utilizadores e barreiras de proteção à proteção de dados e à privacidade dos utilizadores. “A IA generativa pode ser uma tremenda oportunidade para o desenvolvimento humano, mas também pode causar danos e preconceitos”, afirmou Audrey Azoulay, diretora-geral da UNESCO, num comunicado de imprensa. “Não pode ser integrado na educação sem o envolvimento público e as salvaguardas e regulamentações necessárias por parte dos governos.”
source – techcrunch.com