Ainda falta transparência sobre como os modelos básicos são treinados e essa lacuna pode levar a uma tensão crescente com os usuários à medida que mais organizações procuram adotar a inteligência artificial (IA).
Na Ásia-Pacífico, excluindo a China, prevê-se que os gastos com IA cresçam 28,9%, passando de 25,5 mil milhões de dólares em 2022 para 90,7 mil milhões de dólares em 2027, de acordo com a IDC. A empresa de pesquisa estimou que a maior parte destes gastos, 81%, será direcionada para aplicações de IA preditiva e interpretativa.
Além disso: cinco maneiras de usar IA com responsabilidade
Portanto, embora haja muito entusiasmo em torno da IA generativa, o segmento de IA será responsável por apenas 19% dos gastos com IA da região, observou Chris Marshall, vice-presidente de dados, análises, IA, sustentabilidade e pesquisa industrial da IDC Ásia-Pacífico.
A pesquisa destaca um mercado que precisa de uma abordagem mais ampla à IA que vá além da IA generativa, disse Marshall, que falava no Intel AI Summit, realizado em Cingapura esta semana.
No entanto, 84% das organizações da Ásia-Pacífico acreditam que a utilização de modelos generativos de IA oferecerá uma vantagem competitiva significativa para os seus negócios, observou a IDC. Ao fazê-lo, estas empresas esperam obter ganhos em eficiência operacional e produtividade dos funcionários, melhorar a satisfação do cliente e desenvolver novos modelos de negócio, acrescentou a empresa de investigação.
Também: Os melhores chatbots de IA: ChatGPT e outras alternativas dignas de nota
A IDC também espera que a maioria das organizações na região aumente os gastos com TI de ponta este ano, com 75% dos dados empresariais projetados para serem gerados e processados na borda até 2025, fora dos data centers tradicionais e da nuvem.
“Para realmente levar a IA a todos os lugares, as tecnologias utilizadas devem fornecer acessibilidade, flexibilidade e transparência aos indivíduos, às indústrias e à sociedade em geral”, disse Alexis Crowell, CTO da Intel na Ásia-Pacífico Japão. “À medida que testemunhamos um crescimento crescente nos investimentos em IA, os próximos anos serão críticos para os mercados construírem a sua base de maturidade em IA de uma forma responsável e ponderada.”
Os intervenientes da indústria e os governos têm frequentemente elogiado a importância de construir confiança e transparência na IA, e de os consumidores saberem que os sistemas de IA são “justos, explicáveis e seguros”. No entanto, esta transparência parece ainda faltar em alguns aspectos fundamentais.
Quando a ZDNET perguntou se havia atualmente transparência suficiente em torno de como os modelos de linguagem abertos (LLMs) e os modelos básicos eram treinados, Crowell disse: “Não, não é suficiente”.
Também: O boom atual da IA amplificará os problemas sociais se não agirmos agora
Ela apontou para um estudo de pesquisadores da Universidade de Stanford, MIT e Princeton que avaliou a transparência de 10 principais modelos de fundação, nos quais a plataforma com melhor pontuação conseguiu apenas uma pontuação de 54%. “Isso é um fracasso”, disse ela, durante uma coletiva de imprensa na cúpula.
A pontuação média foi de apenas 37%, segundo o estudo, que avaliou os modelos com base em 100 indicadores, incluindo processos envolvidos na construção do modelo, como informações sobre dados de treinamento, arquitetura e riscos do modelo e políticas que regem seu uso. . O artilheiro com 54% foi o Llama 2 da Meta, seguido pelo Bloomz da BigScience com 53% e o GPT-4 da OpenAI com 48%.
“Nenhum grande desenvolvedor de modelos básicos está perto de fornecer transparência adequada, revelando uma falta fundamental de transparência na indústria de IA”, observaram os pesquisadores.
A transparência é necessária
Crowell expressou esperança de que esta situação possa mudar com a disponibilidade de benchmarks e organizações que monitorem estes desenvolvimentos. Ela acrescentou que ações judiciais, como as movidas por New York Times contra OpenAI e Microsoftpoderia ajudar a trazer maior clareza jurídica.
Em particular, devem existir quadros de governação semelhantes às legislações de gestão de dados, incluindo o GDPR (Regulamento Geral de Proteção de Dados) da Europa, para que os utilizadores saibam como os seus dados estão a ser utilizados, observou ela.
As empresas também precisam de tomar decisões de compra com base na forma como os seus dados são capturados e para onde vão, disse ela, acrescentando que a tensão crescente dos utilizadores que exigem mais transparência pode alimentar a acção da indústria.
Do jeito que está, 54% dos usuários de IA não confiam nos dados usados para treinar sistemas de IA, revelou um recente Pesquisa do Salesforceque entrevistou quase 6.000 trabalhadores do conhecimento em nove mercados, incluindo Singapura, Índia, Austrália, Reino Unido, EUA e Alemanha.
Também: A IA e as aplicações avançadas estão sobrecarregando as infraestruturas tecnológicas atuais
Ao contrário da crença comum, a precisão não precisa ser feita às custas da transparência, disse Crowell, citando um relatório de pesquisa liderado pelo Boston Consulting Group.
O relatório analisou o desempenho dos modelos de IA de caixa preta e branca em quase 100 conjuntos de dados de classificação de referência, incluindo preços, diagnóstico médico, previsão de falência e comportamento de compra. Para quase 70% dos conjuntos de dados, os modelos de caixa preta e caixa branca produziram resultados igualmente precisos.
“Em outras palavras, na maioria das vezes, não houve compromisso entre precisão e explicabilidade”, afirmou o relatório. “Um modelo mais explicável poderia ser usado sem sacrificar a precisão.”
Conseguir transparência total, no entanto, continua a ser um desafio, disse Marshall, que observou que as discussões em torno da explicabilidade da IA já foram agitadas, mas desde então diminuíram porque é uma questão difícil de resolver.
Além disso: 5 maneiras de se preparar para o impacto da IA generativa na profissão de TI
As organizações por trás dos principais modelos de fundação podem não estar dispostas a divulgar seus dados de treinamento devido a preocupações sobre serem processadas, disse Laurence Liew, diretor de inovação em IA da agência governamental AI Singapore (AISG).
Ele acrescentou que ser seletivo quanto aos dados de treinamento também afetaria as taxas de precisão da IA.
Liew explicou que o AISG optou por não utilizar determinados conjuntos de dados devido aos potenciais problemas com a utilização de todos os disponíveis publicamente com a sua própria iniciativa LLM, SEA-LION (Southeast Asian Languages in One Network).
Como resultado, a arquitetura de código aberto não é tão precisa quanto alguns dos principais LLMs do mercado hoje, disse ele. “É um equilíbrio delicado”, observou ele, acrescentando que alcançar uma elevada taxa de precisão significaria adoptar uma abordagem aberta à utilização de quaisquer dados disponíveis. Escolher o caminho “ético” e não tocar em determinados conjuntos de dados significará uma taxa de precisão menor daquelas alcançadas pelos participantes comerciais, disse ele.
Mas embora Singapura tenha escolhido um padrão ético elevado com o SEA-LION, ainda é frequentemente desafiado por usuários que pedem que mais conjuntos de dados sejam explorados para melhorar a precisão do LLM, disse Liew.
Um grupo da autores e editores em Cingapura expressaram preocupações no mês passado sobre a possibilidade de seu trabalho ser usado para treinar LEÕES-MARINHOS. Entre as suas queixas está a aparente falta de compromisso de “pagar uma compensação justa” pela utilização de todos os escritos. Observaram também a necessidade de clareza e reconhecimento explícito de que as leis de propriedade intelectual e direitos de autor do país, e os acordos contratuais existentes, serão respeitados na criação e formação de LLMs.
Ser transparente sobre código aberto
Esse reconhecimento também deve se estender a estruturas de código aberto nas quais aplicações de IA possam ser desenvolvidas, de acordo com Matt Hicks, CEO da Red Hat.
Os modelos são treinados a partir de grandes volumes de dados fornecidos por pessoas com direitos autorais e usar esses sistemas de IA de forma responsável significa aderir às licenças pelas quais eles são construídos, disse Hicks, durante um briefing de mídia virtual esta semana, no final do Red Hat Summit 2024.
Além disso: Quer trabalhar com IA? Como impulsionar sua carreira em 5 passos
Isto é pertinente para modelos de código aberto que podem ter variantes de licenciamento variadas, incluindo licenças copyleft como GPL e licenças permissivas como Apache.
Ele ressaltou a importância da transparência e da responsabilidade pela compreensão dos modelos de dados e pelo tratamento dos resultados gerados pelos modelos. Tanto para a segurança como para a proteção das arquiteturas de IA, é necessário garantir que os modelos estejam protegidos contra explorações maliciosas.
A Red Hat procura ajudar seus clientes nesses esforços por meio de uma série de ferramentas, incluindo o Red Hat Enterprise Linux AI (RHEL AI), que foi revelado na cúpula. O produto compreende quatro componentes, incluindo a linguagem Open Granite e modelos de código da comunidade InstructLab, que são suportados e indenizados pela Red Hat.
A abordagem aborda os desafios que as organizações frequentemente enfrentam na implantação de IA, incluindo o gerenciamento do ciclo de vida do aplicativo e do modelo, disse o fornecedor de código aberto.
“[RHEL AI] cria uma plataforma de modelo básico para trazer modelos GenAI licenciados de código aberto para a empresa”, afirmou. “Com ferramentas de alinhamento InstructLab, modelos Granite e RHEL AI, a Red Hat pretende aplicar os benefícios de verdadeiros projetos de código aberto – acessíveis gratuitamente e reutilizável, transparente e aberto a contribuições – para GenAI em um esforço para remover esses obstáculos.”
source – www.zdnet.com