Principais conclusões
Na sequência da devastação causada Furacão Helenauma imagem que mostrava uma menina chorando agarrada a um cachorrinho em um barco em uma rua inundada se tornou viral como uma representação da devastação da tempestade. O problema? A menina (e seu cachorrinho) na verdade não existem. A imagem é uma entre muitas Representações geradas por IAinundando as redes sociais após as tempestades. A imagem traz à tona uma questão fundamental na era da IA: está crescendo mais rápido do que a tecnologia usada para sinalizar e rotular essas imagens.
Vários políticos partilharam a menina inexistente e o seu cachorrinho nas redes sociais em críticas à atual administração e, ainda assim, o uso indevido da IA é um dos exemplos mais inócuos. Afinal de contas, sendo o furacão mais mortal nos EUA desde 2017, a destruição de Helene foi fotografada por muitos fotojornalistas reais, desde imagens impressionantes de famílias a fugir nas águas das cheias até uma bandeira americana inclinada debaixo de água.
Mas as imagens de IA destinadas a criar desinformação estão rapidamente a tornar-se um problema. Um estudo publicado no início deste ano pelo Google, pela Duke University e por várias organizações de verificação de fatos descobriu que a IA não contabilizava muitas fotos de notícias falsas até 2023, mas agora ocupa uma “fração considerável de todas as imagens associadas à desinformação”. Do papa vestindo uma jaqueta a uma garota imaginária fugindo de um furacão, a IA é uma maneira cada vez mais fácil de criar imagens e vídeos falsos para ajudar a perpetuar a desinformação.
Usar a tecnologia para combater a tecnologia é fundamental para reconhecer e, em última análise, impedir que imagens artificiais atinjam o status viral. A questão é que as salvaguardas tecnológicas estão a crescer a um ritmo muito mais lento do que a própria IA. O Facebook, por exemplo, rotula o conteúdo de IA construído usando Meta AI, bem como quando detecta conteúdo gerado em plataformas externas. Porém, o pequeno rótulo está longe de ser infalível e não funciona em todos os tipos de conteúdo gerado por IA. A Content Authenticity Initiative, uma organização que inclui muitos líderes do setor, incluindo a Adobe, está desenvolvendo uma tecnologia promissora que deixaria as informações do criador intactas, mesmo em uma captura de tela. No entanto, a Iniciativa foi organizada em 2019 e muitas das ferramentas ainda estão em beta e exigem a participação do criador.
A imagem traz à tona uma questão fundamental na era da IA:
IA generativa
está crescendo mais rápido do que a tecnologia usada para sinalizar e rotular essas imagens.
Alguns recursos do Apple Intelligence podem não chegar até março de 2025
Os primeiros recursos do Apple Intelligence estão chegando, mas alguns dos melhores ainda podem demorar meses.
As imagens geradas por IA estão se tornando mais difíceis de reconhecer como tal
Quanto melhor a IA generativa se torna, mais difícil é detectar uma falsificação
Vi pela primeira vez a garota do furacão no meu feed de notícias do Facebook e, embora o Meta esteja se esforçando mais para rotular IA do que X, o que permite aos usuários gerar imagens de figuras políticas reconhecíveis, a imagem não veio com um rótulo de aviso. Mais tarde, X notou a foto como IA em um comentário da comunidade. Ainda assim, eu soube imediatamente que a imagem provavelmente era gerada por IA, já que pessoas reais têm poros, onde as imagens de IA ainda tendem a lutar com coisas como textura.
No entanto, a tecnologia de IA está rapidamente a reconhecer e a compensar as suas próprias deficiências. Quando Eu tentei o Grok 2 do Xfiquei surpreso não apenas com a capacidade de gerar pessoas reconhecíveis, mas com o fato de, em muitos casos, essas “pessoas” serem tão detalhadas que algumas até tinham poros e textura de pele. À medida que a IA generativa avança, estes gráficos artificiais tornar-se-ão cada vez mais difíceis de reconhecer.
RelacionadoDeepfakes políticos e 5 outras imagens chocantes que Grok AI do X não deveria ser capaz de fazer
A nova ferramenta de IA do antigo Twitter está sendo criticada por restrições frouxas.
Muitos usuários de mídia social não perdem tempo examinando a fonte antes de clicar no botão de compartilhamento
Embora as ferramentas de detecção de IA estejam crescendo a um ritmo muito mais lento, essas ferramentas existem. Por exemplo, o detector Hive AI, um plug-in que instalei no Chrome em meu laptop, reconheceu a garota do furacão como tendo 97,3% de probabilidade de ser gerada por IA. O problema é que essas ferramentas levam tempo e esforço para serem usadas. A maior parte da navegação nas redes sociais é feita em smartphones, e não em laptops e desktops, e, mesmo que eu decidisse usar um navegador móvel em vez do aplicativo do Facebook, o Chrome não permite tais plug-ins em sua variante móvel.
Para que as ferramentas de detecção de IA tenham o impacto mais significativo, elas precisam estar incorporadas nas ferramentas que os consumidores já utilizam e ter ampla participação dos aplicativos e plataformas mais utilizados. Se a detecção de IA exigir pouco ou nenhum esforço, acredito que poderemos ver um uso mais generalizado. O Facebook está fazendo uma tentativa com seu rótulo de IA – embora eu ache que ele precisa ser muito mais perceptível e melhor na detecção de todos os tipos de conteúdo gerado por IA.
A participação generalizada será provavelmente a mais difícil de conseguir. X, por exemplo, se orgulha de ter criado a IA Grok com um código moral flexível. A plataforma que muito provavelmente atrai uma grande percentagem de utilizadores para a sua subscrição paga por diretrizes éticas negligentes, como a capacidade de gerar imagens de políticos e celebridades, tem muito pouco incentivo monetário para unir forças com aqueles que lutam contra o uso indevido da IA. Mesmo as plataformas de IA com restrições em vigor não são infalíveis, já que um estudo do Center for Countering Digital Hate conseguiu contornar essas restrições para criar imagens relacionadas às eleições 41% das vezes usando Midjourney, ChatGPT Plus, Stability.ai DreamStudio e Criador de imagens da Microsoft.
Se as próprias empresas de IA trabalhassem para rotular adequadamente a IA, essas salvaguardas poderiam ser lançadas a um ritmo muito mais rápido. Isso se aplica não apenas à geração de imagens, mas também de texto, já que o ChatGPT está trabalhando em uma marca d’água como forma de ajudar os educadores a reconhecer os alunos que usaram atalhos de IA.
RelacionadoAs novas ferramentas de IA da Adobe tornarão seu próximo projeto criativo muito fácil
No Adobe Max, a empresa anunciou várias novas ferramentas generativas de IA para Photoshop e Premiere Pro.
A participação do artista também é fundamental
A atribuição adequada e a prevenção contra a destruição de IA podem ajudar a incentivar os artistas a participar
Embora a adoção de salvaguardas por parte das empresas de IA e das plataformas de redes sociais seja crítica, a outra parte da equação é a participação dos próprios artistas. A Content Authenticity Initiative está trabalhando para criar uma marca d’água que não apenas mantenha intactos o nome do artista e o devido crédito, mas também detalhe se a IA foi usada na criação. As credenciais de conteúdo da Adobe são uma marca d’água avançada e invisível que identifica quem criou uma imagem e se AI ou Photoshop foi usado ou não em sua criação. Os dados podem então ser lidos pela extensão Content Credentials Chrome, com um aplicativo da web previsto para ser lançado no próximo ano. Essas credenciais de conteúdo funcionam mesmo quando alguém faz uma captura de tela da imagem, enquanto a Adobe também está trabalhando no uso dessa ferramenta para evitar que o trabalho de um artista seja usado para treinar IA.
A Adobe diz que usa apenas conteúdo licenciado do Adobe Stock e de domínio público para treinar o Firefly, mas está construindo uma ferramenta para impedir que outras empresas de IA usem a imagem como treinamento.
O problema é duplo. Primeiro, embora a Iniciativa de Autenticidade de Conteúdo tenha sido organizada em 2019, as Credenciais de Conteúdo (o nome dessa marca d’água digital) ainda estão em versão beta. Como fotógrafo, agora posso rotular meu trabalho com credenciais de conteúdo no Photoshop, mas a ferramenta ainda está em beta e a ferramenta da web para ler esses dados não deve ser lançada até 2025. O Photoshop testou uma série de ferramentas generativas de IA e as lançou na versão completa desde então, mas as credenciais de conteúdo parecem ser uma implementação mais lenta.
Segundo, as credenciais de conteúdo não funcionarão se o artista não participar. Atualmente, as credenciais de conteúdo são opcionais e os artistas podem escolher se querem ou não adicionar esses dados. A capacidade da ferramenta de ajudar a evitar que a imagem seja treinada como IA e a capacidade de manter o nome do artista anexado à imagem são bons incentivos, mas a ferramenta ainda não parece ser amplamente utilizada. Se o artista não usar credenciais de conteúdo, a ferramenta de detecção simplesmente mostrará “nenhuma credencial de conteúdo encontrada”. Isso não significa que a imagem em questão seja IA, significa simplesmente que o artista não optou por participar do recurso de rotulagem. Por exemplo, recebo a mesma mensagem “sem credenciais” ao visualizar as fotografias do furacão Helene tiradas por fotógrafos da Associated Press e ao visualizar a garota viral do furacão gerada pela IA e seu cachorrinho igualmente gerado.
Embora eu acredite que a implementação de credenciais de conteúdo seja um passo de lesma em comparação com a rápida implantação da IA, ainda acredito que poderia ser a chave para um futuro onde as imagens geradas sejam devidamente rotuladas e facilmente reconhecidas.
As salvaguardas para evitar o uso indevido de IA generativa estão começando a surgir e a mostrar-se promissoras. Mas estes sistemas terão de ser desenvolvidos a um ritmo muito mais amplo, adoptados por uma gama mais ampla de artistas e empresas tecnológicas, e desenvolvidos de uma forma que os torne fáceis de utilizar por qualquer pessoa, a fim de causar o maior impacto na era da IA.
RelacionadoPedi ao Spotify AI que me desse uma playlist de festa de Halloween. Veja como foi
Spotify AI preparou uma lista de reprodução assustadora de Halloween para mim.
source – www.pocket-lint.com