A Nvidia apresentou recentemente sua rede neural chamada “Perfusion generative”, notável por seu tamanho compacto e recursos de treinamento rápido. De acordo com os detalhes fornecidos pela Nvidia, esse modelo de rede neural requer apenas 100 kb de espaço, um feito impressionante quando comparado a outros modelos como o Midjourney, que requer mais de 2 gigabytes de armazenamento gratuito.
A chave para a eficiência do Perfusion é um mecanismo que a Nvidia chamou de “Key-Locking”. Esse recurso inovador permite que o modelo associe solicitações específicas do usuário a uma categoria mais ampla ou ‘supercategoria’. Por exemplo, uma solicitação para produzir um gato levaria o modelo a alinhar o termo “gato” com a categoria mais ampla “felino”. Depois que esse alinhamento ocorre, o modelo processa os detalhes adicionais fornecidos no prompt de texto do usuário. Tal método otimiza o algoritmo, tornando o processamento mais rápido.
Outra vantagem do modelo Perfusion reside na sua adaptabilidade. Dependendo dos requisitos do usuário, o modelo pode ser adaptado para aderir estritamente a um prompt de texto ou receber um grau de “liberdade criativa” em suas saídas. Essa versatilidade garante que o modelo possa ser ajustado com precisão para gerar resultados que variam de precisos a mais gerais, com base nas necessidades específicas do usuário.
A Nvidia indicou planos para liberar o código no futuro, permitindo um exame e compreensão mais amplos do potencial dessa rede neural compacta.
Leia mais sobre IA:
source – mpost.io