Diz -se que o aplicativo de playground de imagem da Apple tem alguns problemas de viés. Um cientista de aprendizado de máquina compartilhou recentemente várias saídas geradas usando o aplicativo de inteligência artificial (AI) e afirmou que continha o tom de pele incorreto e a textura do cabelo em várias ocasiões. Diz -se também que essas imprecisões foram combinadas com estereótipos raciais específicos, aumentando o problema. É difícil afirmar se a suposta questão é um incidente pontual ou uma questão generalizada. Notavelmente, a gigante tecnológica de Cupertino introduziu o aplicativo pela primeira vez como parte do Apple Intelligence Suit com a atualização do iOS 18.2.
O aplicativo de playground de imagem da Apple pode ter problemas de viés
Jochem Gietema, o líder da Science Learning Science em Onfido, compartilhou uma postagem no blog, destacando suas experiências usando o aplicativo de playground de imagem da Apple. No post, ele compartilhou vários conjuntos de saídas geradas usando o aplicativo de playground de imagem e destacou as instâncias de vieses raciais pelo modelo de grande idioma que alimenta o aplicativo. Notavelmente, os funcionários do Gadgets 360 não notaram tais vieses ao testar o aplicativo.
“Ao experimentar, notei que o aplicativo alterou meu tom e cabelo de pele, dependendo do prompt. Profissões como banqueiro de investimento vs. agricultor produzem imagens com tons de pele muito diferentes. O mesmo vale para esqui versus basquete, streetwear vs. terno e, mais problemático, rico versus pobre ”, disse Gietema em um post no LinkedIn.
Supostas saídas tendenciosas geradas usando o aplicativo de playground de imagemCrédito da foto: Jochem Gietema
Tais imprecisões e vieses não são incomuns com LLMs, que são treinados em grandes conjuntos de dados que podem conter estereótipos semelhantes. No ano passado, o modelo Gemini AI do Google enfrentou uma reação para vieses semelhantes. No entanto, as empresas não estão completamente impotentes para evitar essas gerações e geralmente implementam várias camadas de segurança para evitá -las.
O aplicativo de playground de imagem da Apple também vem com certas restrições para evitar problemas associados a imagens geradas pela IA. Por exemplo, o aplicativo Apple Intelligence suporta apenas estilos de desenhos animados e ilustrações para evitar instâncias de DeepFakes. Além disso, as imagens geradas também são geradas com um campo estreito de visão, que geralmente captura apenas a face, juntamente com uma pequena quantidade de detalhes adicionais. Isso também é feito para limitar quaisquer instâncias de vieses e imprecisões.
A gigante da tecnologia também não permite instruções que contêm palavras negativas, nomes de celebridades ou figuras públicas e muito mais para limitar os usuários que abusam da ferramenta para casos de uso não intencionais. No entanto, se as alegações forem verdadeiras, o fabricante do iPhone precisará incluir camadas adicionais de segurança para garantir que os usuários não se sintam discriminados enquanto usam o aplicativo.
source – www.gadgets360.com