A seguir está uma postagem de convidado de Yannik SchradeCEO e cofundador da Arcium.
Quando Larry Ellison, CTO da Oracle AI, compartilhou sua visão de uma rede global de vigilância alimentada por IA que manteria os cidadãos em alerta “melhor comportamento”os críticos foram rápidos em fazer comparações com 1984, de George Orwell, e descrever seu discurso de negócios como distópico. A vigilância em massa é uma violação da privacidade, tem efeitos psicológicos negativose intimida as pessoas participando de protestos.
Mas o que é mais perturbador na visão de Ellison para o futuro é que a vigilância em massa alimentada pela IA já é uma realidade. Durante os Jogos Olímpicos de Verão deste ano, o governo francês subcontratou quatro empresas de tecnologia – Videtics, Orange Business, ChapsVision e Wintics – para conduzir vigilância por vídeo em Paris, usando análises baseadas em IA para monitorar o comportamento e alertar a segurança.
A crescente realidade da vigilância em massa alimentada por IA
Esta política controversa foi possível graças legislação aprovado em 2023, permitindo que software de IA recém-desenvolvido analise dados do público. Embora a França seja o primeiro país da União Europeia para legalizar a vigilância alimentada por IA, a análise de vídeo não é novidade.
O governo do Reino Unido primeiro CFTV instalado nas cidades durante a década de 1960 e a partir de 2022, 78 dos 179 países da OCDE estavam usando IA para sistemas públicos de reconhecimento facial. A procura por esta tecnologia só deverá crescer à medida que a IA avança e permite serviços de informação mais precisos e em maior escala.
Historicamente, os governos aproveitaram os avanços tecnológicos para atualizar os sistemas de vigilância em massa, muitas vezes contratando empresas privadas para fazerem o trabalho sujo por eles. No caso dos Jogos Olímpicos de Paris, as empresas tecnológicas foram capacitadas para testar os seus modelos de treino de IA num evento público de grande escala, obtendo acesso a informações sobre a localização e o comportamento de milhões de indivíduos que assistiam aos jogos e faziam o seu dia a dia. vida na cidade.
Privacidade versus segurança pública: o dilema ético da vigilância de IA
Os defensores da privacidade como eu argumentariam que o monitoramento por vídeo inibe as pessoas de viverem livremente e sem ansiedade. Os decisores políticos que empregam estas tácticas podem argumentar que estão a ser utilizadas em nome da segurança pública; a vigilância também mantém as autoridades sob controle, por exemplo, exigindo que os policiais usem câmeras corporais. Está em questão se as empresas de tecnologia devem ou não ter acesso a dados públicos, mas também quanta informação sensível pode ser armazenada e transferida com segurança entre múltiplas partes.
O que nos leva a um dos maiores desafios da nossa geração: o armazenamento de informações sensíveis online e a forma como esses dados são geridos entre diferentes partes. Qualquer que seja a intenção dos governos ou das empresas que recolhem dados privados através da vigilância da IA, seja para segurança pública ou cidades inteligentesé necessário haver um ambiente seguro para análise de dados.
Computação confidencial descentralizada: uma solução para privacidade de dados de IA
O movimento pela Computação Confidencial Descentralizada (DeCC) oferece uma visão de como abordar esta questão. Muitos modelos de treinamento de IA, sendo o Apple Intelligence um exemplo, usam Ambientes de Execução Confiáveis (TEEs), que dependem de uma cadeia de suprimentos com pontos únicos de falha que exigem a confiança de terceiros, desde a fabricação até o processo de certificação. O DeCC visa remover esses pontos únicos de falha, estabelecendo um sistema descentralizado e confiável para análise e processamento de dados.
Além disso, o DeCC poderia permitir a análise de dados sem descriptografar informações confidenciais. Em teoria, uma ferramenta de análise de vídeo construída em uma rede DeCC pode alertar uma ameaça à segurança sem expor informações confidenciais sobre indivíduos que foram gravados às partes que monitoram com essa ferramenta.
Há uma série de técnicas descentralizadas de computação confidencial sendo testadas no momento, incluindo Provas de Conhecimento Zero (ZKPs), Criptografia Totalmente Homomórfica (FHE) e Computação Multipartidária (MPC). Todos esses métodos tentam essencialmente fazer a mesma coisa – verificar informações essenciais sem divulgar informações confidenciais de nenhuma das partes.
O MPC emergiu como pioneiro no DeCC, permitindo liquidação transparente e divulgação seletiva com maior poder e eficiência computacional. Os MPCs permitem a construção de ambientes de execução multipartidários (MXE). Recipientes virtuais de execução criptografados, onde qualquer programa de computador pode ser executado de forma totalmente criptografada e confidencial.
No contexto, isso permite tanto o treinamento sobre dados criptografados altamente sensíveis e isolados quanto a inferência usando dados criptografados e modelos criptografados. Portanto, na prática, o reconhecimento facial poderia ser realizado mantendo esses dados ocultos das partes que processam essas informações.
As análises recolhidas a partir desses dados poderiam então ser partilhadas entre diferentes partes relativas, tais como autoridades de segurança. Mesmo num ambiente baseado em vigilância, torna-se possível, no mínimo, introduzir transparência e responsabilização na vigilância realizada, mantendo a maior parte dos dados confidenciais e protegidos.
Embora a tecnologia descentralizada de computação confidencial ainda esteja em fase de desenvolvimento, o seu surgimento traz à luz os riscos associados a sistemas confiáveis e oferece um método alternativo para criptografar dados. Neste momento, a aprendizagem automática está a ser integrada em praticamente todos os setores, desde o planeamento urbano até à medicina, entretenimento e muito mais.
Para cada um desses casos de uso, os modelos de treinamento dependem dos dados do usuário, e o DeCC será fundamental para garantir a privacidade individual e a proteção de dados no futuro. Para evitar um futuro distópico, precisamos descentralizar a inteligência artificial.
source – cryptoslate.com