Sam Altman, cofundador e CEO da OpenAI, diz que a empresa sabe como construir inteligência artificial geral, prevê a entrada de agentes de IA na força de trabalho em 2025 e agora está se concentrando em como alcançar a superinteligência artificial.
Altman compartilhou pensamentos sobre o progresso da empresa em uma postagem no blog, refletindo sobre eventos que desafiaram o modelo de governança da OpenAI e exigiram mudanças estruturais. Ele deu novos detalhes sobre o período em que foi brevemente afastado da organização, chamando-o de uma falha de supervisão que testou os princípios fundamentais de liderança. Ele também reconheceu indivíduos que trabalharam nos bastidores para estabilizar as operações, enfatizando como estes desenvolvimentos reafirmaram a necessidade de um quadro adequado à evolução da tecnologia e às elevadas exigências de capital.
Ceticismo da indústria em relação à AGI em 2025
A afirmação da OpenAI de que sabe como alcançar AGI, tradicionalmente definida, atraiu críticas e elogios. Alguns especialistas apontam para pesquisas que indicam apenas uma probabilidade de 50% de inteligência de máquina de alto nível perto da década de 2050, como relatou a InformationWeek. Outros questionam se os avanços na aprendizagem autónoma e no raciocínio totalmente transparente poderão materializar-se tão cedo. O cronograma de Altman para a entrada de agentes de IA na força de trabalho gerou debate, embora a Salesforce já esteja promovendo o conceito com seu produto Agentforce. Ele argumenta que lançamentos iterativos e feedback direto do usuário melhorarão a segurança e, ao mesmo tempo, impulsionarão a funcionalidade.
De acordo com Altman, as ambições da OpenAI vão além da AGI em direção à superinteligência, um passo que alguns observadores consideram inevitável para sistemas avançados de IA. Altman escreveu que a perspectiva de ferramentas superinteligentes poderia desencadear descobertas de longo alcance na ciência e na engenharia. Ele acredita que a implantação cautelosa e a pesquisa de alinhamento podem abordar considerações éticas. Muitos questionam a rapidez com que estas tecnologias influenciarão as indústrias globais, incluindo os mercados criptográficos, onde a automação e a análise orientadas pela IA já estão a fazer ondas com a tecnologia atual.
Assim, o ceticismo persiste em torno das alegações de AGI no curto prazo. Os críticos destacam os desafios para permitir a compreensão genuína, o raciocínio entre domínios e a consciência do contexto. Altman afirma que cada atualização do modelo, combinada com as interações do usuário, ajuda a refinar os resultados e orienta os mecanismos de segurança. Eu pessoalmente previ que o AGI não seria alcançado em 2025 em meio a outras previsões de Ano Novo, já que o abismo entre os modelos atuais e o AGI parece grande demais para ser coberto em 12 meses.
Altman também abordou a mudança da OpenAI de pesquisa pura para uma abordagem orientada ao produto. Ele observou que as suposições originais sobre os requisitos de capital e os objetivos teóricos precisavam ser revisadas assim que a adoção pelos usuários acelerasse. Ele diz que a Iteração reflete o compromisso da OpenAI em permitir que a sociedade se adapte às ferramentas emergentes sem interromper o desenvolvimento.
Altman concluiu que a missão da OpenAI permanece consistente apesar da recente turbulência. Ele acredita que a superinteligência acabará por aumentar o potencial humano e enfrentar desafios complexos. Ele acrescentou que a ampla adoção e o feedback da comunidade ajudarão a moldar salvaguardas práticas, com muitos no setor de IA acompanhando de perto o progresso da OpenAI.
Mencionado neste artigo
source – cryptoslate.com