Desde o lançamento do ChatGPT, há quase um ano, a IA generativa tem aumentado, com as empresas desenvolvendo ou adotando consistentemente modelos de IA todos os dias. A novo relatório do Gartner mostra que o crescimento só continuará com tendência de aumento nos próximos anos.
A empresa de pesquisa prevê que 80% das empresas terão usado APIs (interfaces de programação de aplicativos) ou modelos de IA generativos, ou desenvolvido os seus próprios até 2026.
Também: As vítimas de ransomware continuam a pagar, ao mesmo tempo que se preparam para ataques aprimorados por IA
Isto significa que em apenas três anos, o número de empresas que adoptam ou criam modelos generativos de IA terá crescido dezasseis vezes, uma vez que, de acordo com dados da Gartner, menos de 5% das empresas o fizeram em 2023.
“A IA generativa tornou-se uma prioridade máxima para o alto escalão e gerou uma tremenda inovação em novas ferramentas além dos modelos básicos”, disse Arun Chandrasekaran, ilustre vice-presidente analista do Gartner.
A empresa de pesquisa delineou algumas das inovações que deverão ter impactos massivos nas organizações nos próximos dez anos, incluindo aplicações generativas habilitadas para IA, modelos básicos e gerenciamento de IA, confiança, risco e segurança (AI TRiSM).
Aplicativos habilitados para IA generativa referem-se simplesmente a aplicativos que aproveitam a IA generativa para concluir uma tarefa específica. ChatGPT seria um exemplo de aplicativos generativos habilitados para IA, pois usa IA para sintetizar seus prompts de texto e gerar uma resposta.
As organizações podem adotar esses aplicativos para facilitar o trabalho interno dos trabalhadores ou para oferecer experiências aos clientes que melhorem seus serviços e a experiência do cliente.
“O padrão mais comum para recursos incorporados ao GenAI hoje é texto para X, que democratiza o acesso dos trabalhadores ao que costumavam ser tarefas especializadas, por meio de engenharia imediata usando linguagem natural”, disse Chandrasekaran no relatório.
Também: Como a Adobe está aproveitando a IA generativa nas atualizações da experiência do cliente
Um excelente exemplo é o número crescente de empresas de consultoria que estão a adotar ou a desenvolver os seus próprios modelos de IA para tornar mais fácil aos clientes encontrar os recursos de que necessitam nas vastas bases de dados da empresa.
Um desafio com estas aplicações é que elas são propensas a alucinações e respostas imprecisas que tornam a sua confiabilidade questionável.
Os modelos básicos referem-se aos modelos de aprendizado de máquina subjacentes aos aplicativos generativos de IA, por exemplo, o que o GPT é para o ChatGPT.
Esses modelos básicos são treinados em grandes quantidades de dados e usados para potencializar diferentes aplicativos que podem concluir uma ampla variedade de tarefas.
O Gartner colocou os modelos básicos no pico das expectativas inflacionadas no Hype Cycle, prevendo que, até 2027, eles sustentarão 60% dos casos de uso de processamento de linguagem natural (PNL).
“Os líderes de tecnologia devem começar com modelos com alta precisão em tabelas de classificação de desempenho, que tenham suporte de ecossistema superior e proteções empresariais adequadas em relação à segurança e privacidade”, disse Chandrasekaran.
Também: O Firefox está recebendo um detector de avaliações falsas com tecnologia de IA para suas necessidades de compras
Por último, AI TRiSM refere-se ao conjunto de soluções que podem resolver os problemas que envolvem os modelos generativos de IA e garantir a sua implementação bem-sucedida.
Alguns riscos que afetam os modelos generativos de IA são confiabilidade, desinformação, preconceito, privacidade e justiça.
Se não forem abordadas adequadamente, estas questões podem ser particularmente prejudiciais para as organizações, uma vez que correm o risco de fuga de dados sensíveis e de propagação de desinformação por toda a organização.
“As organizações que não gerenciam consistentemente os riscos de IA estão exponencialmente propensas a experimentar resultados adversos, como falhas e violações de projetos”, disse Chandrasekaran.
O AI TRiSM é, portanto, crucial para que as organizações minimizem esses riscos e protejam os membros da sua organização.
source – www.zdnet.com