Wednesday, March 12, 2025
HomeSocial Media & InternetDetecção de deepfake em tempo real: como o Intel Labs usa IA...

Detecção de deepfake em tempo real: como o Intel Labs usa IA para combater a desinformação

Alguns anos atrás, os deepfakes pareciam uma nova tecnologia cujos fabricantes dependiam de um grande poder de computação. Hoje, deepfakes são onipresentes e têm o potencial de serem mal utilizados para desinformação, hacking e outros propósitos nefastos.

A Intel Labs desenvolveu tecnologia de detecção de deepfake em tempo real para neutralizar esse problema crescente. Ilke Demir, pesquisador sênior da Intel, explica a tecnologia por trás dos deepfakes, os métodos de detecção da Intel e as considerações éticas envolvidas no desenvolvimento e implementação dessas ferramentas.

Também: O boom da IA ​​de hoje amplificará os problemas sociais se não agirmos agora, diz especialista em ética da IA

Deepfakes são vídeos, falas ou imagens em que o ator ou ação não é real, mas criado por inteligência artificial (IA). Os deepfakes usam arquiteturas complexas de aprendizado profundo, como redes adversárias generativas, codificadores automáticos variacionais e outros modelos de IA, para criar conteúdo altamente realista e verossímil. Esses modelos podem gerar personalidades sintéticas, vídeos de sincronização labial e até mesmo conversões de texto para imagem, dificultando a distinção entre conteúdo real e falso.

O termo deepfake às vezes é aplicado a conteúdo autêntico que foi alteradocomo o vídeo de 2019 da ex-presidente da Câmara Nancy Pelosi, que foi medicado para fazê-la parecer embriagada.

A equipe de Demir examina deepfakes computacionais, que são formas sintéticas de conteúdo gerado por máquinas. “A razão pela qual é chamado de deepfake é que existe essa complicada arquitetura de aprendizado profundo na IA generativa criando todo esse conteúdo”, diz ele.

Também: A maioria dos americanos acha que a IA ameaça a humanidade, de acordo com uma pesquisa

Os cibercriminosos e outros malfeitores costumam fazer uso indevido da tecnologia deepfake. Alguns casos de uso incluem desinformação política, conteúdo adulto com celebridades ou indivíduos não consentidos, manipulação de mercado e falsificação de identidade para ganho monetário. Esses impactos negativos ressaltam a necessidade de métodos eficazes de detecção de deepfake.

A Intel Labs desenvolveu uma das primeiras plataformas de detecção de deepfake em tempo real do mundo. Em vez de procurar por artefatos falsos, a tecnologia se concentra em detectar o que é real, como a frequência cardíaca. Usando uma técnica chamada fotopletismografia – o sistema de detecção analisa as mudanças de cor nas veias devido ao conteúdo de oxigênio, que é visível computacionalmente – a tecnologia pode detectar se uma personalidade é humana real ou sintética.

“Estamos tentando ver o que é real e autêntico. A frequência cardíaca é um dos [the signals]”, disse Demir. “Então, quando seu coração bombeia sangue, ele vai para suas veias, e as veias mudam de cor por causa do conteúdo de oxigênio que muda de cor. Não é visível aos nossos olhos; Não posso simplesmente olhar para este vídeo e ver sua frequência cardíaca. Mas essa mudança de cor é computacionalmente visível.”

Também: Não seja enganado por aplicativos falsos do ChatGPT: veja o que procurar

A tecnologia de detecção de deepfake da Intel está sendo implementada em vários setores e plataformas, incluindo ferramentas de mídia social, agências de notícias, emissoras, ferramentas de criação de conteúdo, startups e organizações sem fins lucrativos. Ao integrar a tecnologia em seus fluxos de trabalho, essas organizações podem identificar e mitigar melhor a disseminação de deepfakes e desinformação.

Apesar do potencial de uso indevido, a tecnologia deepfake tem aplicações legítimas. Um dos primeiros usos foi a criação de avatares para melhor representar os indivíduos em ambientes digitais. Demir refere-se a um caso de uso específico chamado “MyFace, MyChoice”, que utiliza deepfakes para aumentar a privacidade em plataformas online.

Em termos simples, essa abordagem permite que os indivíduos controlem sua aparência em fotos online, substituindo seu rosto por um “deepfake quantificavelmente diferente” se quiserem evitar serem reconhecidos. Esses controles oferecem maior privacidade e controle sobre a identidade de alguém, ajudando a neutralizar os algoritmos de reconhecimento facial automático.

Também: GPT-3.5 vs GPT-4: O ChatGPT Plus vale a taxa de assinatura?

Garantir o desenvolvimento ético e a implementação de tecnologias de IA é crucial. A equipe Trusted Media da Intel colabora com antropólogos, cientistas sociais e pesquisadores de usuários para avaliar e refinar a tecnologia. A empresa também possui um Conselho de IA responsável, que revisa os sistemas de IA quanto a princípios éticos e responsáveis, incluindo possíveis vieses, limitações e possíveis casos de uso prejudiciais. Essa abordagem multidisciplinar ajuda a garantir que as tecnologias de IA, como a detecção de deepfake, sirvam para beneficiar os seres humanos em vez de causar danos.

“Temos pessoas legais, temos cientistas sociais, temos psicólogos, e todos eles estão se unindo para identificar as limitações para descobrir se há viés – viés algorítmico, viés sistemático, viés de dados, qualquer tipo de viés”, diz Dimer . A equipe escaneia o código para encontrar “quaisquer possíveis casos de uso de uma tecnologia que possa prejudicar as pessoas”.

Também: 5 maneiras de explorar o uso da IA ​​generativa no trabalho

À medida que os deepfakes se tornam mais prevalentes e sofisticados, é cada vez mais importante desenvolver e implementar tecnologias de detecção para combater a desinformação e outras consequências prejudiciais. A tecnologia de detecção de deepfake em tempo real do Intel Labs oferece uma solução escalável e eficaz para esse problema crescente.

Ao incorporar considerações éticas e colaborar com especialistas em várias disciplinas, a Intel está trabalhando para um futuro em que as tecnologias de IA sejam usadas com responsabilidade e para a melhoria da sociedade.



source – www.zdnet.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

Sandy J
Sandy J
Hi thanks for visiting Asia First News, I am Sandy I will update the daily World and Music News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

Mais popular