A Apple lançou recentemente o MLX – ou ML Explore – a estrutura de aprendizado de máquina (ML) da empresa para computadores Apple Silicon. A estrutura mais recente da empresa foi projetada especificamente para simplificar o processo de treinamento e execução de modelos de ML em computadores equipados com chips das séries M1, M2 e M3 da Apple. A empresa afirma que o MLX apresenta um modelo de memória unificada. A Apple também demonstrou o uso da estrutura, que é de código aberto, permitindo que entusiastas do aprendizado de máquina executem a estrutura em seus laptops ou computadores.
De acordo com detalhes compartilhados pela Apple na plataforma de hospedagem de código GitHub, a estrutura MLX possui uma API C++ junto com uma API Python que é baseada em NumPy, a biblioteca Python para computação científica. Os usuários também podem aproveitar pacotes de nível superior que lhes permitem construir e executar modelos mais complexos em seus computadores, segundo a Apple.
O MLX simplifica o processo de treinamento e execução de modelos de ML em um computador — anteriormente, os desenvolvedores eram forçados a contar com um tradutor para converter e otimizar seus modelos (usando CoreML). Agora foi substituído pelo MLX, que permite aos usuários que executam computadores Apple Silicon treinar e executar seus modelos diretamente em seus próprios dispositivos.
A Apple diz que o design do MLX segue outras estruturas populares usadas hoje, incluindo ArrayFire, Jax, NumPy e PyTorch. A empresa elogiou o modelo de memória unificada de sua estrutura – arrays MLX residem em memória compartilhada, enquanto as operações neles podem ser realizadas em qualquer tipo de dispositivo (atualmente, a Apple suporta CPU e GPU) sem a necessidade de criar cópias de dados.
A empresa também compartilhou exemplos de MLX em ação, realizando tarefas como geração de imagens usando Difusão Estável em hardware Apple Silicon. Ao gerar um lote de imagens, a Apple diz que o MLX é mais rápido que o PyTorch para tamanhos de lote de 6,8,12 e 16 – com rendimento até 40% maior que o último.
Os testes foram realizados em um Mac equipado com chip M2 Ultra, o processador mais rápido da empresa até o momento — o MLX é capaz de gerar 16 imagens em 90 segundos, enquanto o PyTorch levaria cerca de 120 segundos para realizar a mesma tarefa, segundo a empresa.
O vídeo é um modelo Llama v1 7B implementado em MLX e rodando em um M2 Ultra.
Mais aqui: https://t.co/gXIjEZiJws
* Treine um Transformer LM ou ajuste fino com LoRA* Geração de texto com Mistral* Geração de imagem com difusão estável* Reconhecimento de fala com Whisper pic.twitter.com/twMF6NIMdV
-Awni Hannun (@awnihannun) 5 de dezembro de 2023
Outros exemplos de MLX em ação incluem a geração de texto usando o modelo de linguagem LLaMA de código aberto da Meta, bem como o modelo de linguagem grande Mistral. Os pesquisadores de IA e ML também podem usar a ferramenta Whisper de código aberto da OpenAI para executar os modelos de reconhecimento de fala em seus computadores usando MLX.
O lançamento da estrutura MLX da Apple poderia ajudar a facilitar a pesquisa e o desenvolvimento de ML no hardware da empresa, eventualmente permitindo que os desenvolvedores trouxessem ferramentas melhores que poderiam ser usadas para aplicativos e serviços que oferecem recursos de ML no dispositivo executados com eficiência no computador do usuário.
source – www.gadgets360.com