Ilya Sutskever, cofundador e cientista-chefe da OpenAI, esclareceu vários tópicos importantes no domínio da IA.
Destacando os paralelos entre neurônios biológicos e neurônios artificiais usados em redes neurais, Sutskever apontou que, com simplificação apropriada, grandes redes neurais podem se aproximar de alcançar a Inteligência Geral Artificial (AGI). Por sua definição, AGI refere-se a um sistema de computador equipado para automatizar a grande maioria das tarefas intelectuais.
Abordando o debate predominante em torno dos Transformers, ele observou que, embora os atuais modelos Transformer possuam um potencial significativo, isso não nega a possibilidade de uma arquitetura mais eficiente emergir no futuro. No discurso LSTM versus Transformers, ele observou que estruturas LSTM otimizadas, juntamente com um estado interno ampliado e treinamento consistente em larga escala, poderiam produzir resultados substanciais. No entanto, sua inclinação é que os Transformers ainda possam ter uma ligeira vantagem.
Sutskever mencionou abertamente os desafios em compreender as nuances das leis de escala.
Na continuação de seus insights, ele compartilhou sua experiência pessoal de codificação em conjunto com o GPT. A sinergia, como ele descreveu, permitiu um ambiente onde a rede neural executou a maioria das tarefas de codificação.
Prevendo o futuro, Sutskever enfatizou os benefícios potenciais de aproveitar a “superinteligência” – um conceito que supera as capacidades do atual GPT-4. Ele acredita que, se alinhados corretamente, tais avanços podem melhorar substancialmente a qualidade de vida humana.
No entanto, o surgimento da “superinteligência” traz à tona a necessidade de governança. Enfatizando a necessidade de diretrizes estruturadas, Sutskever mencionou os esforços do CEO da OpenAI, Sam Altman, em estabelecer contato com o Congresso dos EUA, ressaltando a importância das regulamentações no domínio da IA.
Leia mais sobre IA:
source – mpost.io