Para digitar chats ou gerar imagens Ghibli, a IA generativa é adequada, mas é melhor pensar duas vezes antes de confiar a ela as rédeas de uma empresa. As consequências podem ser caras se o bot tiver alucinações com informações ou perder o controle. A Salesforce, que vende soluções baseadas nesta tecnologia, encontrou uma solução muito simples para evitar surpresas desagradáveis.

Soluções comprovadas há décadas às vezes são boas. Durante um ano, Força de vendas ostenta o Agentforce, uma solução de “agente” que se baseia em parte nos grandes modelos de linguagem (LLM) da OpenAI, para fornecer serviço pós-venda e suporte ao cliente, substituindo em grande parte os humanos. A empresa também eliminou 4.000 posições das 9.000 em seu suporte ao cliente, passando a usar o Agentforce. Mas o problema é o seguinte: os LLMs às vezes têm tendência a falar bobagens!

Salesforce descobre que IA funciona melhor com regras simples

O site A Informação relata que vários clientes descobriram que os chatbots perdem rapidamente de vista o seu objetivo assim que o utilizador se desvia do “enredo” pretendido. Um executivo da Salesforce, Phil Mui, descreveu em outubro passado os agentes que “ficam à deriva” quando as perguntas vão em todas as direções. O que resulta em respostas fora do tópico ou tarefas que o bot simplesmente se esquece de realizar.

O exemplo da Vivint, especialista em segurança residencial, é revelador. A empresa havia solicitado à Agentforce o envio sistemático de um questionário de satisfação ao final de uma troca. Apesar das instruções claras, a IA por vezes omitiu o envio, sem motivo identificável. A solução final foi substituir a IA por um gatilho que garanta que a mensagem seja enviada a cada interação.

Este gatilho é simplesmente um comando do tipo “se isto, então aquilo” que sempre foi usado na computação. Em outras palavras, uma regra determinística, que não busca interpretar o contexto nem “raciocinar”, mas que executa sempre a mesma ação nas mesmas condições. Certamente é menos elegante que um agente dopado com LLM, mas o comando é infinitamente mais confiável quando se trata de automatizar tarefas críticas. E acima de tudo, ela é incapaz de ter alucinações!

Tínhamos mais confiança nos LLMs há um ano “, admite Sanjna Parulekar, vice-presidente de marketing de produto. Para limitar os erros e as famosas “alucinações”, a Salesforce reforçou assim a utilização destes mecanismos, regras precisas, escritas antecipadamente, que executam sempre as mesmas ações nas mesmas condições.

Muralidhar Krishnaprasad, Diretor de Tecnologia do Grupo, acrescenta: “ Se você der a um LLM mais do que, digamos, oito instruções, ele começará a esquecer algumas delas, o que realmente não é o ideal “. Adicionar comandos básicos, mas eficazes, é tão ” uma forma de reduzir o custo dos LLMs, [que] para garantir que os usuários obtenham as respostas certas. » Como cada solicitação enviada a um modelo de linguagem consome recursos e dinheiro, é melhor que a resposta seja confiável.

A Salesforce garante que não vai retroceder na IA generativa, mas sim usá-la onde ela agrega valor real. “ Agora usamos LLMs de forma mais direcionada, onde eles fornecem valor agregado real », resume um porta-voz que evoca um reforço das salvaguardas e uma melhor monitorização do desempenho. Uma posição mais comedida, indo na contramão dos discursos mais exaltados do Vale do Silício que tende a apresentar a IA generativa como resposta automática a todos os problemas.

👉🏻 Acompanhe notícias de tecnologia em tempo real: adicione 01net às suas fontes no Google e assine nosso canal no WhatsApp.

Fonte :

A informação

Fonte

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *