O aplicativo de playground de imagem movido a IA da Apple tem problemas de viés

Diz -se que o aplicativo de playground de imagem da Apple tem alguns problemas de viés. Um cientista de aprendizado de máquina compartilhou recentemente várias saídas geradas usando o aplicativo de inteligência artificial (AI) e afirmou que continha o tom de pele incorreto e a textura do cabelo em várias ocasiões. Diz -se também que essas imprecisões foram combinadas com estereótipos raciais específicos, aumentando o problema. É difícil afirmar se a suposta questão é um incidente pontual ou uma questão generalizada. Notavelmente, a gigante tecnológica de Cupertino introduziu o aplicativo pela primeira vez como parte do Apple Intelligence Suit com a atualização do iOS 18.2.

O aplicativo de playground de imagem da Apple pode ter problemas de viés

Jochem Gietema, o líder da Science Learning Science em Onfido, compartilhou uma postagem no blog, destacando suas experiências usando o aplicativo de playground de imagem da Apple. No post, ele compartilhou vários conjuntos de saídas geradas usando o aplicativo de playground de imagem e destacou as instâncias de vieses raciais pelo modelo de grande idioma que alimenta o aplicativo. Notavelmente, os funcionários do Gadgets 360 não notaram tais vieses ao testar o aplicativo.

“Ao experimentar, notei que o aplicativo alterou meu tom e cabelo de pele, dependendo do prompt. Profissões como banqueiro de investimento vs. agricultor produzem imagens com tons de pele muito diferentes. O mesmo vale para esqui versus basquete, streetwear vs. terno e, mais problemático, rico versus pobre ”, disse Gietema em um post no LinkedIn.

IMAGE PLAYground Bias Image Playground Viés

Supostas saídas tendenciosas geradas usando o aplicativo de playground de imagemCrédito da foto: Jochem Gietema

Tais imprecisões e vieses não são incomuns com LLMs, que são treinados em grandes conjuntos de dados que podem conter estereótipos semelhantes. No ano passado, o modelo Gemini AI do Google enfrentou uma reação para vieses semelhantes. No entanto, as empresas não estão completamente impotentes para evitar essas gerações e geralmente implementam várias camadas de segurança para evitá -las.

O aplicativo de playground de imagem da Apple também vem com certas restrições para evitar problemas associados a imagens geradas pela IA. Por exemplo, o aplicativo Apple Intelligence suporta apenas estilos de desenhos animados e ilustrações para evitar instâncias de DeepFakes. Além disso, as imagens geradas também são geradas com um campo estreito de visão, que geralmente captura apenas a face, juntamente com uma pequena quantidade de detalhes adicionais. Isso também é feito para limitar quaisquer instâncias de vieses e imprecisões.

A gigante da tecnologia também não permite instruções que contêm palavras negativas, nomes de celebridades ou figuras públicas e muito mais para limitar os usuários que abusam da ferramenta para casos de uso não intencionais. No entanto, se as alegações forem verdadeiras, o fabricante do iPhone precisará incluir camadas adicionais de segurança para garantir que os usuários não se sintam discriminados enquanto usam o aplicativo.

source – www.gadgets360.com