Alguns anos atrás, os deepfakes pareciam uma nova tecnologia cujos fabricantes dependiam de um grande poder de computação. Hoje, deepfakes são onipresentes e têm o potencial de serem mal utilizados para desinformação, hacking e outros propósitos nefastos.
A Intel Labs desenvolveu tecnologia de detecção de deepfake em tempo real para neutralizar esse problema crescente. Ilke Demir, pesquisador sênior da Intel, explica a tecnologia por trás dos deepfakes, os métodos de detecção da Intel e as considerações éticas envolvidas no desenvolvimento e implementação dessas ferramentas.
Também: O boom da IA de hoje amplificará os problemas sociais se não agirmos agora, diz especialista em ética da IA
Deepfakes são vídeos, falas ou imagens em que o ator ou ação não é real, mas criado por inteligência artificial (IA). Os deepfakes usam arquiteturas complexas de aprendizado profundo, como redes adversárias generativas, codificadores automáticos variacionais e outros modelos de IA, para criar conteúdo altamente realista e verossímil. Esses modelos podem gerar personalidades sintéticas, vídeos de sincronização labial e até mesmo conversões de texto para imagem, dificultando a distinção entre conteúdo real e falso.
O termo deepfake às vezes é aplicado a conteúdo autêntico que foi alteradocomo o vídeo de 2019 da ex-presidente da Câmara Nancy Pelosi, que foi medicado para fazê-la parecer embriagada.
A equipe de Demir examina deepfakes computacionais, que são formas sintéticas de conteúdo gerado por máquinas. “A razão pela qual é chamado de deepfake é que existe essa complicada arquitetura de aprendizado profundo na IA generativa criando todo esse conteúdo”, diz ele.
Também: A maioria dos americanos acha que a IA ameaça a humanidade, de acordo com uma pesquisa
Os cibercriminosos e outros malfeitores costumam fazer uso indevido da tecnologia deepfake. Alguns casos de uso incluem desinformação política, conteúdo adulto com celebridades ou indivíduos não consentidos, manipulação de mercado e falsificação de identidade para ganho monetário. Esses impactos negativos ressaltam a necessidade de métodos eficazes de detecção de deepfake.
A Intel Labs desenvolveu uma das primeiras plataformas de detecção de deepfake em tempo real do mundo. Em vez de procurar por artefatos falsos, a tecnologia se concentra em detectar o que é real, como a frequência cardíaca. Usando uma técnica chamada fotopletismografia – o sistema de detecção analisa as mudanças de cor nas veias devido ao conteúdo de oxigênio, que é visível computacionalmente – a tecnologia pode detectar se uma personalidade é humana real ou sintética.
“Estamos tentando ver o que é real e autêntico. A frequência cardíaca é um dos [the signals]”, disse Demir. “Então, quando seu coração bombeia sangue, ele vai para suas veias, e as veias mudam de cor por causa do conteúdo de oxigênio que muda de cor. Não é visível aos nossos olhos; Não posso simplesmente olhar para este vídeo e ver sua frequência cardíaca. Mas essa mudança de cor é computacionalmente visível.”
Também: Não seja enganado por aplicativos falsos do ChatGPT: veja o que procurar
A tecnologia de detecção de deepfake da Intel está sendo implementada em vários setores e plataformas, incluindo ferramentas de mídia social, agências de notícias, emissoras, ferramentas de criação de conteúdo, startups e organizações sem fins lucrativos. Ao integrar a tecnologia em seus fluxos de trabalho, essas organizações podem identificar e mitigar melhor a disseminação de deepfakes e desinformação.
Apesar do potencial de uso indevido, a tecnologia deepfake tem aplicações legítimas. Um dos primeiros usos foi a criação de avatares para melhor representar os indivíduos em ambientes digitais. Demir refere-se a um caso de uso específico chamado “MyFace, MyChoice”, que utiliza deepfakes para aumentar a privacidade em plataformas online.
Em termos simples, essa abordagem permite que os indivíduos controlem sua aparência em fotos online, substituindo seu rosto por um “deepfake quantificavelmente diferente” se quiserem evitar serem reconhecidos. Esses controles oferecem maior privacidade e controle sobre a identidade de alguém, ajudando a neutralizar os algoritmos de reconhecimento facial automático.
Também: GPT-3.5 vs GPT-4: O ChatGPT Plus vale a taxa de assinatura?
Garantir o desenvolvimento ético e a implementação de tecnologias de IA é crucial. A equipe Trusted Media da Intel colabora com antropólogos, cientistas sociais e pesquisadores de usuários para avaliar e refinar a tecnologia. A empresa também possui um Conselho de IA responsável, que revisa os sistemas de IA quanto a princípios éticos e responsáveis, incluindo possíveis vieses, limitações e possíveis casos de uso prejudiciais. Essa abordagem multidisciplinar ajuda a garantir que as tecnologias de IA, como a detecção de deepfake, sirvam para beneficiar os seres humanos em vez de causar danos.
“Temos pessoas legais, temos cientistas sociais, temos psicólogos, e todos eles estão se unindo para identificar as limitações para descobrir se há viés – viés algorítmico, viés sistemático, viés de dados, qualquer tipo de viés”, diz Dimer . A equipe escaneia o código para encontrar “quaisquer possíveis casos de uso de uma tecnologia que possa prejudicar as pessoas”.
Também: 5 maneiras de explorar o uso da IA generativa no trabalho
À medida que os deepfakes se tornam mais prevalentes e sofisticados, é cada vez mais importante desenvolver e implementar tecnologias de detecção para combater a desinformação e outras consequências prejudiciais. A tecnologia de detecção de deepfake em tempo real do Intel Labs oferece uma solução escalável e eficaz para esse problema crescente.
Ao incorporar considerações éticas e colaborar com especialistas em várias disciplinas, a Intel está trabalhando para um futuro em que as tecnologias de IA sejam usadas com responsabilidade e para a melhoria da sociedade.
source – www.zdnet.com