A tecnologia de IA confunde continuamente a realidade e a ficção, saturando o nosso domínio visual – da publicidade ao entretenimento com imagens realistas. Estas imagens permitem a manipulação de figuras públicas reconhecíveis, como políticos, para disseminarem desinformação ou propaganda.
Então, que consequências e preocupações acompanham o aumento das imagens geradas por IA?
Embora as imagens e vídeos gerados por IA tragam benefícios, como o fomento da criatividade e da inovação, também comportam riscos potenciais. A tecnologia de IA generativa permite a criação de imagens altamente realistas que retratam eventos que nunca ocorreram, servindo como um instrumento potente para a propagação de falsidades e a manipulação da opinião pública.
Nos últimos seis meses, a AI Photography, chamada de “promptografia” por Boris Eldgasen, atingiu um nível assustador de realismo.
Agora é possível evocar imagens a partir de textos que deixam os espectadores questionando sua autenticidade. Essas fotos geradas por IA enganaram juízes, venceram concursos de fotografia e foram exploradas por golpistas durante eventos como o terremoto Turquia-Síria.
Os conglomerados tecnológicos e os governos em todo o mundo começaram a implementar medidas para proteger os cidadãos da crescente ameaça das imagens geradas pela IA. Até os próprios fotógrafos estão a expressar preocupações, uma vez que a proliferação da tecnologia de IA no seu ofício representa um risco: o seu trabalho pode tornar-se indistinguível do dos seus pares.
Uma ameaça crescente que provoca desconforto em todo o mundo
As tecnologias de IA generativa estão a evoluir rapidamente, tornando cada vez mais difícil diferenciar entre imagens geradas por computador, também conhecidas como “imagens sintéticas”, e aquelas criadas sem a ajuda de sistemas de IA.
A homogeneização das imagens geradas pela IA ameaça a diversidade e a originalidade no campo da fotografia, tornando difícil para os fotógrafos distinguir o seu trabalho e para o público distinguir entre os vários fotógrafos.
Além disso, se as imagens geradas pela IA se tornarem a norma, poderão desvalorizar o valor percebido da fotografia. As imagens criadas por IA podem deixar de ser vistas como únicas ou preciosas, reduzindo potencialmente a procura por criações fotográficas originais.
Ferramentas de inteligência artificial poderiam ser exploradas para produzir imagens de abuso infantil e propaganda terrorista, como advertiu o Comissário de Segurança Eletrônica da Austrália, que anunciou recentemente um padrão da indústria que obriga gigantes da tecnologia como Google, Bing da Microsoft e DuckDuckGo a erradicar esse material dos motores de busca alimentados por IA.
Este novo código da indústria que rege os motores de busca exige que estes gigantes da tecnologia eliminem material de abuso infantil dos seus resultados de pesquisa e tomem medidas preventivas para garantir que produtos de IA generativos não possam ser usados para gerar versões enganosas de tal material.
Julie Inman Grant, Comissária da Segurança Eletrónica, sublinhou a necessidade de as empresas assumirem uma postura proativa na minimização dos danos decorrentes dos seus produtos. Ela alertou que já estão surgindo material “sintético” de abuso infantil e propaganda terrorista, enfatizando a urgência de abordar estas questões.
A Microsoft e o Google anunciaram recentemente planos para integrar suas ferramentas de IA, ChatGPT e Bard, respectivamente, em seus populares mecanismos de busca para consumidores. Inman Grant observou que o progresso da tecnologia de IA exige uma reavaliação do “código de pesquisa” que rege estas plataformas.
Supostos agentes chineses também aproveitaram a inteligência artificial para simular os eleitores americanos online e disseminar desinformação sobre temas políticos divisivos à medida que as eleições de 2024 nos EUA se aproximam, de acordo com um alerta de analistas da Microsoft.
Nos últimos nove meses, estes agentes publicaram imagens impressionantes geradas por IA da Estátua da Liberdade e do movimento Black Lives Matter em plataformas de redes sociais, com foco em depreciar figuras e símbolos políticos dos EUA.
Esta suposta rede de influência chinesa empregou múltiplas contas em plataformas de redes sociais ocidentais para disseminar imagens geradas por IA. Embora as imagens tenham sido geradas por computador, indivíduos reais, consciente ou inconscientemente, as compartilharam nas redes sociais, amplificando seu impacto.
Tecnologia Conglomerados se unem para proteger a autenticidade da imagem
A empresa de conteúdo e tecnologia Thomson Reuters fez parceria com a Canon e o Starling Lab, um laboratório de pesquisa acadêmica, para lançar um programa piloto que visa verificar a autenticidade das imagens usadas em reportagens. Esta iniciativa colaborativa procura garantir que as imagens geradas pela IA não passam por fotografias genuínas, especialmente em conteúdos noticiosos, onde a precisão é fundamental.
Esta iniciativa é particularmente oportuna na batalha contra a onda crescente de desinformação. Rickey Rogers, editor global da Reuters Pictures, enfatizou a importância vital da confiança nas reportagens noticiosas.
“A confiança nas notícias é fundamental. No entanto, os recentes avanços tecnológicos na geração e manipulação de imagens estão levando mais pessoas a questionar a autenticidade do conteúdo visual. A Reuters continua comprometida em explorar novas tecnologias que garantam a precisão e a confiabilidade do conteúdo que entregamos”, disse Rogers.
Da mesma forma, o Google lançou o SynthID, uma ferramenta para colocar marcas d’água e identificar fotos geradas por IA, e lançou sua edição beta em colaboração com o Google Cloud. Esta tecnologia incorpora uma marca d’água digital em nível de pixel nas imagens para verificação, mas permanece invisível a olho nu.
Imagen, um dos mais recentes modelos de texto para imagem, agora está disponibilizando o SynthID para um grupo seleto de clientes da Vertex AI. Imagen recebe entrada textual e produz imagens fotorrealistas como saída.
Os pesquisadores desenvolveram o SynthID para manter a qualidade da imagem e, ao mesmo tempo, permitir que a marca d’água seja detectável mesmo após alterações como filtros, mudanças de cor ou compactação usando algoritmos com perdas, normalmente usados para JPEGs.
SynthID emprega dois modelos de aprendizagem profunda – um para marca d’água e outro para identificação – treinados em um conjunto diversificado de fotos. O modelo combinado é ajustado para atingir vários objetivos, incluindo o reconhecimento preciso das informações da marca d’água e o alinhamento estético da marca d’água com o conteúdo original.
A resolução deste problema exige ação por parte dos fotógrafos, dos desenvolvedores de IA e da indústria fotográfica em geral. Isto pode implicar o desenvolvimento de diretrizes éticas e melhores práticas para a utilização da IA na fotografia e encorajar a exploração de novas formas de fotografia que aproveitem as capacidades únicas da tecnologia de IA, preservando ao mesmo tempo a integridade artística do campo.
source – mpost.io