Em fevereiro, o Google interrompeu a capacidade de seu chatbot Gemini com tecnologia de IA de gerar imagens de pessoas depois que os usuários reclamaram de imprecisões históricas. Dizendo para representar “uma legião romana”, por exemplo, Gêmeos mostraria um grupo anacrônico de soldados racialmente diversos, enquanto retratava “guerreiros Zulu” como estereotipadamente negros.
O CEO do Google, Sundar Pichai, pediu desculpas, e Demis Hassabis, cofundador da divisão de pesquisa de IA do Google, DeepMind, disse que uma solução deve chegar “em muito pouco tempo” – nas próximas semanas. Mas já estamos em maio e a solução prometida permanece indefinida.
O Google elogiou muitos outros recursos do Gemini em sua conferência anual de desenvolvedores I/O esta semana, desde chatbots personalizados até um planejador de itinerário de férias e integrações com Google Calendar, Keep e YouTube Music. Mas a geração de imagens de pessoas continua desligada nos aplicativos Gemini na web e em dispositivos móveis, confirmou um porta-voz do Google.
Então, qual é o problema? Bem, o problema é provavelmente mais complexo do que Hassabis aludiu.
Os conjuntos de dados usados para treinar geradores de imagens como o Gemini geralmente contêm mais imagens de pessoas brancas do que de pessoas de outras raças e etnias, e as imagens de pessoas não brancas nesses conjuntos de dados reforçam estereótipos negativos. O Google, em um aparente esforço para corrigir esses preconceitos, implementou uma codificação desajeitada nos bastidores. E agora está lutando para encontrar um meio-termo razoável que evite a repetição da história.
O Google chegará lá? Talvez. Talvez não. Em qualquer caso, o prolongado caso serve como um lembrete de que nenhuma solução para o mau comportamento da IA é fácil – especialmente quando o preconceito está na raiz do mau comportamento.
Estamos lançando um boletim informativo sobre IA! Inscreva-se aqui para começar a recebê-lo em suas caixas de entrada no dia 5 de junho.
source – techcrunch.com