Não conseguiu comparecer ao Transform 2022? Confira todas as sessões da cúpula em nossa biblioteca sob demanda agora! Assista aqui.
Um dos maiores desafios de configuração que as equipes de inteligência artificial (IA) enfrentam é treinar os agentes manualmente. Os métodos supervisionados atuais são demorados e caros, exigindo dados de treinamento rotulados manualmente para todas as classes. Em uma pesquisa da Dimensional Research e da AIegion, 96% dos entrevistados disseram ter encontrado problemas relacionados ao treinamento, como qualidade de dados, rotulagem necessária para treinar o modelo e aumentar a confiança do modelo.
À medida que o domínio do processamento de linguagem natural (NLP) cresce de forma constante por meio de avanços em redes neurais profundas e grandes conjuntos de dados de treinamento, esse problema mudou para a frente e para o centro para uma variedade de casos de uso baseados em linguagem. Para resolver isso, a plataforma de IA de conversação Yellow AI anunciou recentemente o lançamento do DynamicNLP, uma solução projetada para eliminar a necessidade de treinamento do modelo de PNL.
DynamicNLP é um modelo de PNL pré-treinado, que oferece a vantagem de as empresas não precisarem perder tempo treinando o modelo de PNL continuamente. A ferramenta é baseada no aprendizado zero-shot (ZSL), que elimina a necessidade de as empresas passarem pelo processo demorado de rotular manualmente os dados para treinar o bot de IA. Em vez disso, isso permite que os agentes dinâmicos de IA aprendam rapidamente, configurando fluxos de IA conversacionais em minutos, reduzindo dados, custos e esforços de treinamento.
“O aprendizado zero oferece uma maneira de contornar esse problema, permitindo que o modelo aprenda com o nome da intenção”, disse Raghu Ravinutala, CEO e cofundador da Yellow AI. “Isso significa que o modelo pode aprender sem precisar ser treinado em cada novo domínio.”
Evento
MetaBeat 2022
A MetaBeat reunirá líderes de pensamento para fornecer orientação sobre como a tecnologia metaverse transformará a maneira como todas as indústrias se comunicam e fazem negócios em 4 de outubro em San Francisco, CA.
Registre-se aqui
Além disso, o modelo de tiro zero também pode mitigar a necessidade de coletar e anotar dados para aumentar a precisão, disse ele.
Barreiras de treinamento de IA conversacional
As plataformas de IA de conversação exigem treinamento extensivo para fornecer efetivamente conversas semelhantes às humanas. A menos que os enunciados sejam constantemente adicionados e atualizados, o modelo de chatbot não consegue entender a intenção do usuário, portanto, não pode oferecer a resposta certa. Além disso, o processo deve ser mantido para muitos casos de uso, o que requer treinamento manual de PNL com centenas a milhares de pontos de dados diferentes.
Ao usar métodos de aprendizado supervisionado para adicionar enunciados (entrada de um usuário do chatbot), é crucial monitorar constantemente como os usuários digitam enunciados, rotulando de forma incremental e iterativa os que não foram identificados. Uma vez rotulados, os enunciados ausentes devem ser reintroduzidos no treinamento. Várias consultas podem não ser identificadas durante o processo.
Outro desafio significativo é como os enunciados podem ser adicionados. Mesmo considerando todas as formas de registro de entrada do usuário, ainda há a questão de quantas o chatbot será capaz de detectar.
Para esse fim, a plataforma DynamicNLP da Yellow AI foi projetada para melhorar a precisão das intenções vistas e não vistas nos enunciados. A remoção da rotulagem manual também ajuda a eliminar erros, resultando em um NLP mais forte e robusto, com melhor cobertura de intenção para todos os tipos de conversas.
De acordo com a Yellow AI, a agilidade do modelo do DynamicNLP permite que as empresas maximizem com sucesso a eficiência e a eficácia em uma ampla gama de casos de uso, como suporte ao cliente, engajamento do cliente, comércio conversacional, automação de RH e ITSM.
“Nossa plataforma vem com um modelo pré-treinado com aprendizado não supervisionado que permite que as empresas ignorem o processo tedioso, complexo e propenso a erros de treinamento de modelos”, disse Ravinutala.
O modelo pré-treinado é construído usando bilhões de conversas anônimas, que, segundo Ravinutala, ajudam a reduzir os enunciados não identificados em até 60%, tornando os agentes de IA mais humanos e escaláveis em setores com casos de uso mais amplos.
“A plataforma também foi exposta a muitos enunciados relacionados ao domínio”, disse ele. “Isso significa que as incorporações de frases subsequentes geradas são muito mais fortes, com mais de 97% de precisão de intenção.”
Tendências e desafios futuros para a IA conversacional
Ravintula disse que o uso de modelos pré-treinados para aprimorar o desenvolvimento de IA conversacional sem dúvida aumentará, abrangendo diferentes modalidades, incluindo texto, voz, vídeo e imagens.
“Empresas de todos os setores exigiriam esforços ainda menores para ajustar e criar seus casos de uso exclusivos, pois teriam acesso a modelos pré-treinados maiores que proporcionariam uma experiência elevada ao cliente e ao funcionário”, disse ele.
Um desafio atual, ele apontou, é tornar os modelos mais sensíveis ao contexto, uma vez que a linguagem, por sua própria natureza, é ambígua.
“Os modelos capazes de entender entradas de áudio que incluem vários alto-falantes, ruído de fundo, sotaque, tom, etc., exigiriam uma abordagem diferente para fornecer efetivamente conversas naturais com os usuários”, disse ele.
A missão do VentureBeat é ser uma praça digital para os tomadores de decisões técnicas adquirirem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Aprender mais sobre a associação.
Fonte: venturebeat.com