Wednesday, March 12, 2025
HomeNotícias de criptomoedaO Gemma 3 do Google torna a AI em casa uma realidade...

O Gemma 3 do Google torna a AI em casa uma realidade com o novo modelo de código aberto

Atualmente, a execução de modelos de IA de código aberto localmente é apenas uma alternativa estranha à facilidade de usar serviços baseados em nuvem como ChatGPT, Claude, Gemini ou Grok.

No entanto, a execução de modelos diretamente em dispositivos pessoais, em vez de enviar informações para servidores centralizados, oferece segurança aprimorada para processamento de informações confidenciais e se tornará cada vez mais importante à medida que a indústria da IA ​​escala.

A explosão do crescimento da IA ​​desde que o OpenAI lançou o ChatGPT com o GPT3 superou o desenvolvimento tradicional da computação e deve continuar. Com isso, os modelos centralizados de IA administrados por empresas de bilhões de dólares como OpenAI, Google e outros aproveitarão considerável poder e influência globais.

Quanto mais poderoso o modelo, mais usuários poderão analisar grandes quantidades de dados através da IA ​​para ajudar de inúmeras maneiras. Os dados pertencentes e controlados por essas empresas de IA se tornarão extremamente valiosos e podem incluir dados privados cada vez mais sensíveis.

Para aproveitar completamente os modelos de IA da Frontier, os usuários podem decidir expor dados privados, como registros médicos, transações financeiras, periódicos pessoais, e -mails, fotos, mensagens, dados de localização e muito mais para criar um assistente de IA agentico com uma imagem holística de seus usuários.

A escolha se torna interessante: confie em uma corporação com seus dados mais pessoais e privados ou execute um modelo de AI local que armazena dados privados localmente ou offline em casa.

O Google libera modelo de IA leve de código aberto de próxima geração

A GEMMA 3, lançada nesta semana, traz novos recursos ao ecossistema local da IA ​​com sua gama de tamanhos de modelo de 1B a 27B parâmetros. O modelo suporta multimodalidade, 128 mil janelas de contexto de token e entende mais de 140 idiomas, marcando um avanço significativo na IA localmente implantável.

No entanto, a execução do maior modelo de parâmetros de 27b com contexto completo de 128K requer recursos substanciais de computação, potencialmente excedendo os recursos de hardware de consumo de ponta com RAM de 128 GB sem encadear vários computadores.

Para gerenciar isso, várias ferramentas estão disponíveis para ajudar os usuários que buscam executar modelos de IA localmente. O LLAMA.CPP fornece uma implementação eficiente para executar modelos em hardware padrão, enquanto o LM Studio oferece uma interface amigável para aqueles menos confortáveis ​​com operações de linha de comando.

Ollama ganhou popularidade por seus modelos pré-embalados que exigem configuração mínima, o que torna a implantação acessível a usuários não técnicos. Outras opções notáveis ​​incluem Faraday.dev para personalização avançada e local.ai para compatibilidade mais ampla em várias arquiteturas.

No entanto, o Google também lançou várias versões menores de Gemma 3 com janelas de contexto reduzidas, que podem ser executadas em todos os tipos de dispositivos, de telefones a tablets a laptops e desktops. Os usuários que desejam aproveitar o limite de janela de contexto de 128.000 token da Gemma podem fazê -lo por cerca de US $ 5.000 usando quantização e os modelos 4B ou 12B.

  • GEMMA 3 (4B): Este modelo será executado confortavelmente em um M4 Mac com RAM de 128 GB no contexto completo de 128k. O modelo 4B é significativamente menor que as variantes maiores, tornando viável funcionar com toda a janela de contexto.
  • GEMMA 3 (12B): Este modelo também deve ser executado em um M4 Mac com RAM de 128 GB com o contexto completo de 128k, embora você possa experimentar algumas limitações de desempenho em comparação com tamanhos de contexto menores.
  • Gemma 3 (27b): Este modelo seria um desafio para executar com o contexto completo de 128k, mesmo em um Mac M4 de 128 GB. Você pode precisar de quantização agressiva (Q4) e esperar um desempenho mais lento.

Benefícios dos modelos de IA locais

A mudança em direção à IA hospedada localmente decorre de benefícios concretos além das vantagens teóricas. Computer Weekly relatou que a execução de modelos localmente permite isolamento completo de dados, eliminando o risco de informações sensíveis transmitidas aos serviços em nuvem.

Essa abordagem se mostra crucial para as indústrias que lidam com informações confidenciais, como setores de assistência médica, finanças e legais, onde os regulamentos de privacidade de dados exigem controle rigoroso sobre o processamento de informações. No entanto, isso também se aplica aos usuários comuns marcados por violações de dados e abusos de poder, como o escândalo do Facebook da Cambridge Analytica.

Os modelos locais também eliminam questões de latência inerentes aos serviços em nuvem. A remoção da necessidade de dados viajarem através das redes resulta em tempos de resposta significativamente mais rápidos, o que é fundamental para aplicações que requerem interação em tempo real. Para usuários em locais remotos ou áreas com conectividade não confiável da Internet, os modelos hospedados localmente fornecem acesso consistente, independentemente do status de conexão.

Os serviços de IA baseados em nuvem normalmente cobram com base em assinaturas ou métricas de uso, como os tokens processados ​​ou o tempo de computação. O Valueminer observa que, embora os custos iniciais de configuração para a infraestrutura local possam ser maiores, a economia a longo prazo se torna aparente à medida que o uso escalas, principalmente para aplicativos com uso intenso de dados. Essa vantagem econômica se torna mais pronunciada à medida que a eficiência do modelo melhora e os requisitos de hardware diminuem.

Além disso, quando os usuários interagem com os serviços de IA da nuvem, suas consultas e respostas tornam -se parte de conjuntos de dados maciços potencialmente usados ​​para treinamento futuro de modelo. Isso cria um loop de feedback em que os dados do usuário alimentam continuamente as melhorias do sistema sem consentimento explícito para cada uso. Vulnerabilidades de segurança em sistemas centralizados apresentam riscos adicionais, como destaques globais do EMB, com o potencial de violações que afetam milhões de usuários simultaneamente.

O que você pode correr em casa?

Embora as maiores versões de modelos como a Gemma 3 (27b) exijam recursos de computação substanciais, as variantes menores oferecem recursos impressionantes no hardware do consumidor.

A versão de parâmetros 4B do Gemma 3 é executada efetivamente em sistemas com RAM de 24 GB, enquanto a versão 12b requer aproximadamente 48 GB para o desempenho ideal com comprimentos de contexto razoáveis. Esses requisitos continuam a diminuir à medida que as técnicas de quantização melhoram, tornando a IA poderosa mais acessível no hardware do consumidor padrão.

Curiosamente, a Apple tem uma verdadeira vantagem competitiva no mercado de IA doméstica devido à sua memória unificada nos Macs da série M. Ao contrário dos PCs com GPUs dedicadas, a RAM no MACS é compartilhada em todo o sistema, o que significa que os modelos que requerem altos níveis de memória podem ser usados. Até as principais GPUs da NVIDIA e AMD são limitadas a cerca de 32 GB de VRAM. No entanto, os mais recentes Macs Apple podem lidar com até 256 GB de memória unificada, que podem ser usadas para inferência de IA, diferentemente do PC RAM.

A implementação da IA ​​local oferece benefícios de controle adicionais por meio de opções de personalização que não estão disponíveis com os serviços em nuvem. Os modelos podem ser ajustados nos dados específicos do domínio, criando versões especializadas otimizadas para casos de uso específicos sem compartilhamento externo de informações proprietárias. Essa abordagem permite o processamento de dados altamente sensíveis, como registros financeiros, informações de saúde ou outras informações confidenciais que, de outra forma, apresentariam riscos se processadas por meio de serviços de terceiros.

O movimento em direção à IA local representa uma mudança fundamental na forma como as tecnologias de IA se integram aos fluxos de trabalho existentes. Em vez de adaptar os processos para acomodar as limitações de serviços em nuvem, os usuários modificam os modelos para atender aos requisitos específicos, mantendo o controle completo sobre dados e processamento.

Essa democratização da capacidade de IA continua a acelerar à medida que os tamanhos dos modelos diminuem e a eficiência aumenta, colocando ferramentas cada vez mais poderosas diretamente nas mãos dos usuários sem gatekeeping centralizado.

Pessoalmente, estou passando por um projeto para configurar uma IA da casa com acesso a informações confidenciais da família e dados domésticos inteligentes para criar um Jarvis da vida real totalmente removido da influência externa. Eu realmente acredito que aqueles que não têm sua própria orquestração de IA em casa estão condenados a repetir os erros que cometemos, fornecendo todos os nossos dados às empresas de mídia social no início dos anos 2000.

Aprenda com a história para não repeti -la.

source – cryptoslate.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

ARTIGOS RELACIONADOS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Mais popular