A Meta anunciou que começará a rotular imagens geradas por inteligência artificial (IA) em todas as suas plataformas, incluindo Facebook, Threads e Instagram. O anúncio, feito em 6 de fevereiro, ocorreu apenas um dia depois que o conselho de supervisão da empresa destacou a necessidade de mudar a política da Meta sobre conteúdo gerado por IA e de se concentrar na prevenção dos danos que pode causar, respondendo à denúncia envolvendo o presidente dos EUA, Joe Biden. vídeo alterado digitalmente que apareceu online. Meta disse que embora rotule imagens fotorrealistas criadas por seus próprios modelos de IA, agora trabalhará com outras empresas para rotular todas as imagens geradas por IA compartilhadas em suas plataformas.
Em uma redação publicar Terça-feira, o presidente de assuntos globais da Meta, Nick Clegg, sublinhou a necessidade de rotular o conteúdo gerado por IA para proteger os usuários e impedir a desinformação, e compartilhou que já começou a trabalhar com participantes da indústria para desenvolver uma solução. Ele disse: “Temos trabalhado com parceiros da indústria para alinhar padrões técnicos comuns que sinalizam quando um conteúdo foi criado usando IA”. A gigante da mídia social também revelou que atualmente pode rotular imagens do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock. Ela tem rotulado as imagens criadas pelos próprios modelos de IA da Meta como “Imaginadas com IA”.
Para identificar corretamente as imagens geradas por IA, as ferramentas de detecção requerem um identificador comum em todas essas imagens. Muitas empresas que trabalham com IA começaram a adicionar marcas d’água invisíveis e a incorporar informações nos metadados das imagens como forma de deixar claro que não foram criadas ou capturadas por humanos. A Meta disse que foi capaz de detectar imagens de IA das empresas destacadas, pois segue os padrões técnicos aprovados pela indústria.
Mas existem alguns problemas com isso. Primeiro, nem todo gerador de imagens de IA usa essas ferramentas para deixar claro que as imagens não são reais. Em segundo lugar, Meta percebeu que existem maneiras de remover a marca d’água invisível. Para isso, a empresa revelou que está trabalhando com parceiros do setor para criar uma tecnologia unificada de marca d’água que não seja facilmente removível. No ano passado, a ala de pesquisa de IA da Meta, Fundamental AI Research (FAIR), anunciado que estava desenvolvendo um mecanismo de marca d’água chamado Stable Signature, que incorpora o marcador diretamente no processo de geração de imagem. DeepMind do Google também lançou uma ferramenta semelhante chamada SynthID.
Mas isso apenas cobre as imagens. Áudio e vídeos gerados por IA também se tornaram comuns hoje. Resolvendo isso, Meta reconheceu que uma tecnologia de detecção semelhante para áudio e vídeo ainda não foi criada, embora o desenvolvimento esteja em andamento. Até que surja uma maneira de detectar e identificar automaticamente esse conteúdo, a gigante da tecnologia adicionou um recurso para os usuários em sua plataforma divulgarem quando compartilham vídeo ou áudio gerado por IA. Depois de divulgado, a plataforma adicionará um rótulo a ele.
Clegg destacou ainda que caso as pessoas não divulguem tal conteúdo e o Meta descubra que ele foi alterado ou criado digitalmente, poderá aplicar penalidades ao usuário. Além disso, se o conteúdo partilhado for de natureza de alto risco e puder enganar o público sobre questões importantes, poderá adicionar um rótulo ainda mais proeminente para ajudar os utilizadores a compreender o contexto.
source – www.gadgets360.com