Sunday, November 24, 2024
HomeNotícias de criptomoedaLLMs centralizados comprovam o caso da IA ​​descentralizada

LLMs centralizados comprovam o caso da IA ​​descentralizada

Em resumo

Os chatbots da Big Tech, geralmente de código fechado, carecem de transparência e confiabilidade. Modelos abertos e transparentes gerenciados em sistemas descentralizados oferecem uma alternativa confiável.


LLMs centralizados comprovam o caso da IA ​​descentralizada

As Big Tech introduziram rapidamente modelos de IA conversacional desde a estreia do ChatGPT no final de 2022. No entanto, essas empresas geralmente criam modelos para se alinharem à sua cultura corporativa ou atender a objetivos políticos ou ideológicos específicos. Como esses modelos são caixas-pretas de código fechado, os usuários não têm insights sobre seus dados de treinamento e mecânica subjacente, deixando-os imaginando como as respostas são geradas.

Uma alternativa confiável seriam modelos abertos e transparentes, gerenciados e treinados em sistemas descentralizados, oferecendo maior confiabilidade do que os atuais modelos corporativos fechados.

O viés nos LLMs centralizados

Desde antes do lançamento do ChatGPT, diferentes grupos levantaram os perigos do viés em sistemas fechados. Críticos de círculos progressistas há muito argumentam que os modelos de linguagem grande (LLMs) agem como “papagaios estocásticos”, refletindo pontos de vista dominantes e codificando vieses que podem prejudicar populações marginalizadas. Ironicamente, algumas das reações mais vitais aos vieses do ChatGPT vieram do outro lado da divisão política dos Estados Unidos.

Usuários observaram que, embora o modelo pudesse discutir a interferência russa na eleição de 2020, ele ficou notavelmente em silêncio no laptop de Hunter Biden. Este tópico também foi amplamente divulgado ao mesmo tempo. A pesquisa apoia a alegação de parcialidade: “Encontramos evidências robustas de que o ChatGPT exibe um parcialidade política significativa e sistemática em favor dos democratas nos EUA, Lula no Brasil e do Partido Trabalhista no Reino Unido”, observou um estudo.

Dado o elemento humano na construção de modelos, algum viés é inevitável. No entanto, quando os modelos são treinados de forma opaca e, em seguida, comercializados como “neutros”, os usuários são expostos a vieses dos dados ou dos desenvolvedores, sem a capacidade de examiná-los.

Os vieses também podem ir além das entradas de dados usadas. Por exemplo, no início de 2024, o criador de imagens do Google Gemini enfrentou uma reação severa e foi rapidamente “pausado” para “atualizações”. Para evitar ofender o que via como sensibilidades políticas e sociais convencionais, o Google forçou seu modelo a incluir diversidade em quase todas as imagens.

Essa abordagem levou a resultados absurdamente imprecisos, como nazistas africanos e asiáticos e um grupo diverso de pais fundadores americanos. Essas imagens não eram apenas totalmente incorretas, mas também ofensivas. Mais importante, no entanto, elas levantaram o véu sobre os riscos ocultos de manipulação inerentes a modelos de IA proprietários e fechados desenvolvidos e executados por empresas.

Transparência e abertura são essenciais para o futuro da IA

Os preconceitos das pessoas que criaram os modelos afetam a todos eles. Por exemplo, os prompts de imagem do modelo Gemini do Google dependem dos preconceitos inatos das pessoas que os criaram. Eles também passam por um conjunto extra de diretrizes, incluindo o aumento da diversidade, que estão alinhados com o que o Google considera respostas desejáveis ​​ou aceitáveis. Apesar de suas boas intenções, essas restrições não são facilmente visíveis aos usuários.

Dado que as diretrizes de diversidade da Gemini eram tão claras e estranhas, os resultados logo se tornaram alvo de zombaria generalizada, pois os usuários competiam para criar o resultado mais ridículo. Como o modelo de IA gera resultados com base em solicitações de imagens, todas as saídas provavelmente são influenciadas por regras e vieses idênticos. Embora os vieses nas descobertas das imagens fossem óbvios e facilmente vistos, é muito mais difícil identificar a manipulação nas respostas de texto.

É imperativo que os LLMs sejam transparentes, abertamente inspecionáveis ​​e livres de vieses opacos para que sejam amplamente confiáveis, em vez de serem treinados e manipulados por corporações a portas fechadas. Isso só pode ser alcançado com modelos de código aberto que comprovadamente são treinados em conjuntos de dados específicos.

Hugging Face é uma das várias iniciativas de código aberto que arrecadaram US$ 400 milhões e está fazendo grande progresso em direção ao desenvolvimento e treinamento desses modelos abertos. O fato de que esses modelos operaram em redes descentralizadas e foram transparentes ao público demonstra que cada resultado foi aplicado ao modelo honestamente. Para pagamentos e armazenamento, existem atualmente redes descentralizadas muito robustas, e outros mercados de GPU, incluindo Aethir e Akash, estão otimizando para executar e treinar modelos de inteligência artificial.

Redes descentralizadas são essenciais porque são difíceis de ameaçar ou desligar, já que funcionam internacionalmente em uma variedade de infraestruturas e não têm um proprietário. Este ecossistema em rápido crescimento inclui mercados de GPU para treinamento e execução de modelos, plataformas como Filecoin para armazenamento de dados, plataformas de CPU como Fluence para execução de modelos com comprovação e ferramentas abertas para desenvolvimento de modelos. Com esta infraestrutura vital, os modelos abertos se tornarão uma força poderosa.

Estruturas de IA descentralizadas são práticas?

A Microsoft e o Google investiram bilhões de dólares na criação de seus LLMs, dando a eles uma vantagem imbatível. No entanto, eventos passados ​​demonstraram que até mesmo os negócios mais conhecidos podem ser ultrapassados. Por exemplo, o Linux derrotou a vantagem de dez anos do Microsoft Windows e o apoio financeiro de bilhões para emergir como o melhor sistema operacional.

Podemos antecipar o mesmo nível de sucesso no desenvolvimento e educação de LLMs de código aberto como a comunidade de código aberto fez na criação do Linux, particularmente se tivermos uma plataforma compartilhada que facilite o desenvolvimento. Em um futuro próximo, modelos menores e específicos de domínio com conjuntos de dados distintos podem se desenvolver, fornecendo mais confiança dentro de seus domínios especializados em vez de competir diretamente com LLMs massivos como o ChatGPT.

Por exemplo, um modelo focado em oncologia infantil poderia utilizar acesso exclusivo a dados dos principais hospitais infantis. Uma única interface poderia agregar esses modelos específicos de domínio, fornecendo uma experiência semelhante à do ChatGPT com base em uma fundação transparente e confiável.

A agregação de modelos é um caminho viável para criar uma alternativa confiável aos LLMs corporativos. No entanto, garantir que operamos esses modelos de forma verificável é tão crucial quanto seu desenvolvimento e treinamento. O foco deve estar nos resultados, e qualquer organização que execute um modelo enfrentará pressão significativa de políticos, reguladores, acionistas, funcionários, o público e exércitos de bots do Twitter.

Modelos descentralizados, hospedados por provedores globais de armazenamento e executados em redes de computação abertas e descentralizadas, oferecem consultas auditáveis ​​e resistem a preconceitos e censura ocultos, o que os torna muito mais confiáveis.

Embora a Big Tech esteja ciente de seus problemas de preconceito, ela precisará de ajuda para dar suporte a modelos que dão respostas impopulares entre seus funcionários, governos e clientes, mesmo que sejam precisas. A OpenAI tomará medidas para reduzir o preconceito aparente, e o Google atualizará o Gemini para ser mais historicamente preciso, mas o preconceito oculto em ambos persistirá. Devemos usar essa revelação da manipulação da Big Tech como um aviso bem-vindo sobre os riscos de confiar em qualquer empresa centralizada para desenvolver e executar modelos de IA, não importa o quão bem-intencionada seja. Chamamos para construir sistemas de IA abertos, transparentes e descentralizados nos quais possamos confiar.

Isenção de responsabilidade

De acordo com as diretrizes do Trust Project, observe que as informações fornecidas nesta página não pretendem ser e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou de qualquer outra forma. É importante investir apenas o que você pode perder e buscar aconselhamento financeiro independente se tiver dúvidas. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. O MetaversePost está comprometido com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Tom Trowbridge é um empreendedor experiente, construtor de negócios e escritor com foco em tecnologias Web3. Como cofundador e CEO da Fluence Labs, ele lidera a criação da Cloudless Internet, uma rede de computação descentralizada e sem servidor que oferece poder de computação de baixo custo, resiliente e verificável. Um líder de pensamento no espaço descentralizado, ele também é membro do conselho da Stronghold Digital Mining e um dos primeiros investidores em projetos DePIN. Tom compartilha regularmente insights por meio de seus escritos, hospedagem de podcast e contribuições para o ecossistema de infraestrutura descentralizada, incluindo seu trabalho como apresentador do podcast DePINed, onde entrevista os principais fundadores, investidores e provedores.

Mais artigos

cropped IMG 4132 asiafirstnews
cropped IMG 4132 asiafirstnews

Tom Trowbridge é um empreendedor experiente, construtor de negócios e escritor com foco em tecnologias Web3. Como cofundador e CEO da Fluence Labs, ele lidera a criação da Cloudless Internet, uma rede de computação descentralizada e sem servidor que oferece poder de computação de baixo custo, resiliente e verificável. Um líder de pensamento no espaço descentralizado, ele também é membro do conselho da Stronghold Digital Mining e um dos primeiros investidores em projetos DePIN. Tom compartilha regularmente insights por meio de seus escritos, hospedagem de podcast e contribuições para o ecossistema de infraestrutura descentralizada, incluindo seu trabalho como apresentador do podcast DePINed, onde entrevista os principais fundadores, investidores e provedores.

source – mpost.io

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

ARTIGOS RELACIONADOS

Mais popular