Sim, eu realmente não entendo o valor da maioria das ferramentas generativas de IA que estão sendo implementadas em aplicativos sociais, especialmente considerando que elas estão gradualmente corroendo os elementos “sociais” humanos por meio de respostas e engajamento de bots. Mas eles estão lá e podem fazer coisas. Então isso é alguma coisa, eu acho.
Hoje, X (antigo Twitter) lançou o base de código interno para seu chatbot AI “Grok”que permite aos usuários do X Premium+ obter respostas sarcásticas e ousadas às perguntas, com base no corpus cada vez maior de atualizações em tempo real do X.
Como explicado por xAI:
“Estamos lançando os pesos do modelo básico e a arquitetura de rede do Grok-1, nosso grande modelo de linguagem. Grok-1 é um modelo de mistura de especialistas de 314 bilhões de parâmetros treinado do zero por xAI. Este é o ponto de verificação do modelo base bruto da fase de pré-treinamento do Grok-1, que foi concluída em outubro de 2023. Isso significa que o modelo não está ajustado para nenhuma aplicação específica, como o diálogo.”
O lançamento faz parte do compromisso da X de ser mais aberto sobre a forma como os seus sistemas operam, para ajudar a eliminar preconceitos e permitir a exploração dos seus sistemas por terceiros.
O desenvolvimento de IA, em particular, tornou-se o foco do proprietário do X, Elon Musk, que passou a criticar todos os outros chatbots, desde ChatGPT da OpenAIpara Gêmeos do Googleà base de código Llama do Meta por supostamente estar “muito acordado” para produzir respostas precisas.
O que, pelo menos na opinião de Musk, poderia representar um risco para a humanidade:
Um amigo meu sugeriu que eu esclarecesse a natureza do perigo da IA desperta, especialmente a diversidade forçada.
Se uma IA estiver programada para promover a diversidade a todo custo, como fez o Google Gemini, então ela fará tudo o que puder para causar esse resultado, potencialmente até matando pessoas.
-Elon Musk (@elonmusk) 15 de março de 2024
O que provavelmente é um salto alguns passos à frente da realidade, visto que ainda estamos muito longe da verdadeira “inteligência” da máquina como tal. Mas sua explicação aqui fornece uma visão sobre o princípio em que Musk se baseia, enquanto busca promover seu próprio bot de IA imparcial.
O que, dado que é treinado em postos X, provavelmente estaria muito longe de ser “acordado”, ou algo parecido.
Sob X Abordagem política de “liberdade de expressão, sem alcance”, X agora está deixando muitas postagens ofensivas e prejudiciais no aplicativo, mas reduzindo seu alcance se forem consideradas uma violação de suas políticas. Se eles infringirem a lei, o X irá removê-los, mas se não, eles ainda estarão visíveis, apenas mais difíceis de encontrar no aplicativo.
Portanto, se Grok estiver sendo treinado em todo o corpus de postagens X, esses comentários altamente ofensivos, mas não ilegais, seriam incluídos, o que provavelmente significaria que Grok está produzindo respostas enganosas, ofensivas e incorretas com base em teorias de conspiração malucas e de longa data. tropos racistas, sexistas e outros tropos prejudiciais.
Mas pelo menos não está “acordado”, certo?
Na verdade, Grok é um reflexo da abordagem falha de Elon à moderação de conteúdo de forma mais ampla, com o X agora confiando mais em seus usuários, por meio de Notas da Comunidade, para policiar o que é aceitável e o que não é, ao mesmo tempo que remove menos conteúdo, sob a bandeira de “liberdade de discurso”. Mas o resultado final disso será mais desinformação, mais teorias da conspiração, mais medo e angústia equivocados.
Mas também tira o ônus de Musk and Co. de fazer duras chamadas de moderação, razão pela qual ele continua a criticar outras plataformas.
Então, com base nisso, Grok já está produzindo mais respostas enganosas e incorretas? Bem, provavelmente não temos dados suficientes, porque muito poucas pessoas podem realmente usá-los.
Menos de 1% dos usuários X têm inscreveu-se no X Premiume Grok só está disponível em sua versão mais cara Pacote “Premium+”, que é o dobro do preço da assinatura básica. Portanto, apenas uma pequena fração dos usuários do X realmente tem acesso, o que limita a quantidade de insights que temos sobre seus resultados reais.
Mas eu arriscaria um palpite de que Grok é tão suscetível a respostas “acordadas” quanto outras ferramentas de IA, dependendo das perguntas que lhe são feitas, ao mesmo tempo que é muito mais provável que produza respostas enganosas, com base em postagens X como entrada.
Você pode se aprofundar no código Grok para saber exatamente como todos esses elementos se aplicam, que está disponível aquimas você teria que assumir, com base em suas informações, que Grok é um reflexo da crescente variedade de teorias alternativas convencionais de X.
E, como observado, eu realmente não vejo a contribuição de bots como esse, considerando o foco dos aplicativos de mídia “social”.
No momento, você pode obter bots de IA in-stream para criar postagens para você no Facebook, LinkedIn e Snapchat, com outras plataformas também experimentando ferramentas de legenda, resposta e pós-geração. Por meio dessas ferramentas, você pode criar uma persona totalmente alternativa, inteiramente alimentada por ferramentas de bot, que se parece mais com o que você deseja ser, mas não com o que você realmente é.
O que inevitavelmente significará que cada vez mais conteúdo, ao longo do tempo, serão bots conversando com bots em aplicativos sociais, eliminando o elemento humano e afastando essas plataformas ainda mais desse propósito social central.
O que, eu acho, já está acontecendo de qualquer maneira. Nos últimos anos, a quantidade de pessoas que postam nas redes sociais diminuiu significativamente, com mais conversas migrando para chats de mensagens privadas. Essa tendência foi desencadeada pelo TikTok, que tirou toda a ênfase de quem você segue e colocou mais confiança nas recomendações de IA, com base em sua atividade, o que então moveu os aplicativos sociais para uma reforma como plataformas de entretenimento por direito próprio, em oposição às ferramentas de conexão.
Todos os aplicativos seguiram o exemplo e agora se trata menos de ser social, e os bots de IA estão prontos para levar isso para o próximo nível, onde ninguém se preocupará em interagir, devido ao ceticismo em torno de quem ou o que eles estão realmente interagindo. com.
Isso é uma coisa boa?
Quer dizer, o engajamento aumentou, então as próprias plataformas estão felizes. Mas será que queremos realmente avançar para um cenário onde os elementos sociais sejam apenas notas secundárias?
De qualquer forma, parece que é para onde estamos indo, embora ainda não veja como os bots de IA agregam algum valor à experiência. Eles simplesmente degradam o propósito original dos aplicativos sociais com mais rapidez.
source – www.socialmediatoday.com