Os óculos inteligentes Ray-Ban Meta foram usados por dois estudantes de engenharia de Harvard para criar um aplicativo que pode revelar informações confidenciais sobre as pessoas sem que elas percebessem. Os alunos postaram uma demonstração do vídeo no X (anteriormente conhecido como Twitter) e demonstraram a capacidade do aplicativo. Notavelmente, o aplicativo não está sendo disponibilizado publicamente aos usuários; em vez disso, eles o fizeram para destacar os perigos dos dispositivos vestíveis alimentados por IA que usam câmeras discretas que podem capturar fotos e imagens de pessoas.
O aplicativo, batizado de I-Xray, usa inteligência artificial (IA) para reconhecimento facial e, em seguida, usa dados visuais processados para doxx indivíduos. Doxxing, uma gíria popular na Internet que é uma junção de “descartar dox (informal de documentos ou documentos)”, é o ato de revelar informações pessoais sobre alguém sem o seu consentimento.
Ele foi integrado aos óculos inteligentes Ray-Ban Meta, mas os desenvolvedores disseram que funcionaria com qualquer óculos inteligente com câmeras discretas. Ele usa um modelo de IA semelhante ao PimEyes e FaceCheck para reconhecimento facial reverso. A tecnologia pode combinar o rosto de um indivíduo com imagens dele disponíveis publicamente online e vasculhar os URLs.
Outro grande modelo de linguagem (LLM) é então alimentado com esses URLs e um prompt automático é gerado para descobrir o nome, ocupação, endereço e outros dados semelhantes da pessoa. O modelo de IA também analisa dados governamentais disponíveis publicamente, como bancos de dados de registro eleitoral. Além disso, uma ferramenta online chamada FastPeopleSearch também foi usada para isso.
Em uma breve demonstração em vídeo, os estudantes de Harvard AnhPhu Nguyen e Caine Ardayfio também mostraram o funcionamento deste aplicativo. Eles puderam encontrar estranhos com a câmera já ligada e perguntar seu nome, e o aplicativo com tecnologia de IA poderia assumir o controle para encontrar dados pessoais sobre o indivíduo.
Em um arquivo do Google Docs, os desenvolvedores disseram: “Essa sinergia entre LLMs e pesquisa reversa permite a extração de dados totalmente automática e abrangente que anteriormente não era possível apenas com métodos tradicionais”.
Os alunos declararam que não pretendem disponibilizar o aplicativo publicamente e apenas o desenvolveram para destacar os riscos de um dispositivo vestível habilitado para IA que pode gravar pessoas discretamente. No entanto, isso não significa que malfeitores não possam criar um aplicativo semelhante usando uma metodologia semelhante.
source – www.gadgets360.com