
Provavelmente já conhece o tema mais quente do ano: Agentes de IA. A maioria destes agentes de IA são agentesLLM .
"A revolução a que assistimos foi construída em torno destes modelos de linguagem", explica Will Knight, redator de tecnologia da Wired. "Isso não é exatamente o mesmo que um sistema de IA que é inerentemente um agente".
Os agentes LLM podem ser construídos para completar qualquer tipo de tarefa baseada em linguagem, com o poder dos LLMs que alimentam bots como o ChatGPT e o Claude.
E graças às suas capacidades linguísticas e analíticas, estão lentamente a tomar conta dos locais de trabalho de colarinho branco, com mais de 80% das empresas a planearem utilizar agentes de IA nos próximos anos.
Enquanto a categoria mais vasta de agentes de IA inclui aplicações não linguísticas (sistemas de recomendação de conteúdos, reconhecimento de imagens, controlo robótico, etc.), os agentes LLM são normalmente software de IA de conversação.
O que são os agentes LLM ?
LLM Os agentes são ferramentas alimentadas por IA que utilizam modelos linguísticos de grande dimensão para interpretar a linguagem, manter conversações e executar tarefas.
Estes agentes são construídos com base em algoritmos complexos treinados em grandes quantidades de dados de texto, o que lhes permite compreender e produzir linguagem de uma forma que imita a comunicação humana.
LLM podem ser integrados em agentes de IA, chatbots de IA, assistentes virtuais, software de geração de conteúdos e outras ferramentas aplicadas.
Como é que os agentes LLM trabalham?
Os agentes LLM combinam o poder de uma LLM com a recuperação, o raciocínio, a memória e a utilização de ferramentas para completar tarefas de forma autónoma. Vamos analisar o que cada um destes componentes faz.
Combinadas, estas capacidades permitem que os agentes LLM realizem fluxos de trabalho complexos e de várias etapas com total autonomia.
Por exemplo:
- Um agente de vendas B2B recupera dados de CRM sobre um potencial cliente, analisa a progressão do negócio, recorda interações anteriores com o potencial cliente para poder personalizar o acompanhamento e utiliza APIs de correio eletrónico e calendário para enviar e agendar.
- Um agente de TI recupera os registos do sistema para diagnosticar um erro, analisa os passos de resolução de problemas para obter a melhor estratégia, recorda o que funcionou em problemas de utilizadores anteriores e executa scripts para reiniciar serviços ou criar um bilhete.
Quais são as 4 caraterísticas que definem um agente LLM ?

Existem quatro caraterísticas principais de um agente LLM :
1. Modelo linguístico
O modelo de linguagem é frequentemente considerado o "cérebro" de um agente LLM . A sua qualidade e escala influenciam diretamente o desempenho do agente LLM .
Trata-se de um algoritmo sofisticado treinado em enormes conjuntos de dados de texto, o que lhe permite compreender o contexto, reconhecer padrões e produzir respostas coerentes e contextualmente relevantes.
- Identificar e aprender padrões linguísticos
- Ganhar um grau de consciência contextual (graças aos seus vastos dados de formação)
- Adaptar-se a diferentes domínios e lidar com uma vasta gama de tópicos
O modelo de linguagem determina a profundidade, a exatidão e a relevância das respostas, o que constitui a base das capacidades linguísticas do agente.
2. Memória
A memória refere-se à capacidade de reter informações de interações passadas, como factos, preferências do utilizador ou tópicos entre sessões.
Isto melhora a compreensão contextual do agente e torna as conversas mais contínuas e relevantes.
Nalgumas configurações, a memória permite que o agente retenha informações ao longo do tempo. Isto permite uma interação a longo prazo em que o agente "aprende" com o comportamento ou as preferências repetidas do utilizador - embora isto seja frequentemente regulamentado por questões de privacidade e relevância.
3. Utilização de ferramentas
A utilização da ferramenta leva um agente LLM da conversa à ação.
Um agente LLM pode integrar-se em aplicações externas, bases de dados ou APIs para executar funções específicas.
Isto significa que podem obter informações em tempo real, executar acções externas ou aceder a bases de dados especializadas, o que lhe confere a capacidade de fornecer informações em tempo real. Isto inclui:
- Chamada de APIs
- Obtenção de dados em tempo real, como actualizações meteorológicas ou preços de acções
- Agendamento de reuniões ou compromissos
- Consulta de bases de dados, como catálogos de produtos ou documentos de política de RH
A utilização de ferramentas permite que o agente LLM passe de um sistema passivo, baseado no conhecimento, para um participante ativo capaz de interagir com outros sistemas.
4. Planeamento
O planeamento é a capacidade de um agente LLM de decompor tarefas complexas numa série de etapas geríveis.
Um agente LLM pode planear com ou sem feedback. Qual é a diferença?
- Planear sem feedback significa que o agente LLM criará um plano com base na sua compreensão inicial. É mais rápido e mais simples, mas carece de adaptabilidade.
- Planear com feedback significa que um agente LLM pode aperfeiçoar continuamente o seu plano, recebendo informações do seu ambiente. É mais complexo, mas torna-o muito mais flexível e melhora o desempenho ao longo do tempo.
Ao planear, um agente LLM pode criar fluxos lógicos que avançam progressivamente para uma solução, tornando-o mais eficaz no tratamento de pedidos complexos.
Quais são os diferentes tipos de agentes LLM ?
.webp)
Agentes de conversação (por exemplo, apoio ao cliente e geração de contactos)
Estes tipos de agentes estabelecem um diálogo natural com os utilizadores - muitas vezes fornecem informações, respondem a perguntas e ajudam em várias tarefas.
Estes agentes baseiam-se em LLMs para compreender e gerar respostas semelhantes às humanas.
Exemplos: Agentes de apoio ao cliente e chatbots de cuidados de saúde
Agentes orientados para tarefas (por exemplo, assistentes de IA e fluxos de trabalho de IA)
Centrados na realização de tarefas específicas ou na consecução de objectivos predefinidos, estes agentes interagem com os utilizadores para compreender as suas necessidades e, em seguida, executam acções para satisfazer essas necessidades.
Exemplos: Assistentes de IA e bots de RH
Agentes criativos (por exemplo, ferramentas de criação de conteúdos)
Capazes de gerar conteúdos originais e criativos, como obras de arte, música ou escrita, estes agentes utilizam a LLMs para compreender as preferências humanas e os estilos artísticos, o que lhes permite produzir conteúdos que ressoam junto do público.
Exemplos: Ferramentas de geração de conteúdos e ferramentas de geração de imagens (como Dall-E)
Agentes de colaboração (por exemplo, agentes de IA empresarial)
Estes agentes trabalham em conjunto com os humanos para atingir objectivos ou tarefas partilhadas, facilitando a comunicação, a coordenação e a cooperação entre os membros da equipa ou entre humanos e máquinas.
LLMs podem apoiar os agentes de colaboração, ajudando na tomada de decisões, gerando relatórios ou fornecendo informações.
Exemplos: A maioria dos agentes de IA empresariais e chatbots de gestão de projectos
Como é que as empresas utilizam os agentes LLM ?
As empresas beneficiam dos agentes LLM em áreas que envolvem o processamento e a resposta a linguagem natural, como responder a perguntas, fornecer orientação, automatizar fluxos de trabalho e analisar texto.
As empresas utilizam frequentemente os agentes LLM para marketing, análise de dados, conformidade, assistência jurídica, apoio aos cuidados de saúde, tarefas financeiras e educação.
Eis 3 dos casos de utilização mais populares dos agentes LLM :
Apoio ao cliente
De acordo com um estudo realizado em 167 empresas pelo especialista em automação Pascal Bornet, o serviço ao cliente é o caso de utilização mais popular para a adoção de agentes LLM .
LLM Os agentes são muito utilizados no apoio ao cliente para responder a perguntas frequentes, resolver problemas e prestar assistência 24 horas por dia, 7 dias por semana.
Estes agentes podem interagir com os clientes em tempo real, oferecendo ajuda imediata ou encaminhando questões complexas para agentes humanos.
Veja também: O que é um chatbot de atendimento ao cliente?
Vendas e geração de leads
Nas vendas, os agentes LLM são utilizados para a geração de leads de IA - podem mesmo qualificar os leads posteriormente, envolvendo potenciais clientes em conversas, avaliando as necessidades e recolhendo informações valiosas.
Podem também automatizar as interações de acompanhamento, enviando recomendações personalizadas ou informações sobre produtos com base nos interesses do cliente.
Veja também: Como utilizar a IA nas vendas
Apoio interno: RH e TI
Para apoio interno, os agentes LLM simplificam os processos de RH e TI, tratando de questões comuns dos funcionários.
De facto, o estudo da Bornet concluiu que os agentes LLM nas operações internas eram os mais rentáveis, poupando 30-90% do tempo que anteriormente era necessário para realizar as tarefas internas.
Nos RH, respondem a perguntas sobre temas como benefícios, políticas de férias e folhas de pagamento, enquanto que nas TI, resolvem problemas técnicos básicos ou automatizam tarefas de rotina como a configuração de contas.
Isto permite que as equipas de RH e de TI se concentrem em responsabilidades mais complexas, em vez de se ocuparem de tarefas repetitivas.
Veja também: Melhores agentes de IA para RH
Como melhorar LLM Respostas do agente
Se estiver a personalizar um LLM para um projeto de IA , vai querer ajustar as respostas padrão que um modelo público daria aos utilizadores. (Não pode ter o seu chatbot a recomendar a concorrência, pois não?) Também pode querer que este utilize lógica de negócio personalizada , para que funcione mais como um funcionário treinado do que como geração aleatória de linguagem.
Existem quatro conceitos gerais que melhoram a qualidade dos LLM respostas:
- RAG
- Afinação fina
- Solicitação de disparo N
- Engenharia rápida
1. Geração aumentada por recuperação
RAG é um nome elegante para uma coisa simples que todos nós já fizemos em ChatGPT: colar um texto em ChatGPT e fazer uma pergunta sobre ele.
Um exemplo típico é perguntar se um determinado produto está em stock num sítio de comércio eletrónico, e um chatbot procurar a informação num catálogo de produtos (em vez de na Internet em geral).
Em termos de rapidez de desenvolvimento e de obtenção de informações em tempo real, o RAG é imprescindível.
Normalmente, não afecta o modelo a escolher, mas nada o impede de criar um ponto de extremidade da API LLM que consulte informações e respostas e utilize este ponto de extremidade como se fosse o seu próprio LLM.
A utilização de RAG para um chatbot baseado no conhecimento é frequentemente mais fácil de manter, uma vez que não é necessário afinar um modelo e mantê-lo atualizado - o que também pode reduzir os custos.
2. Ajuste fino
O ajuste fino envolve fornecer exemplos ao modelo para que ele aprenda a fazer bem uma determinada tarefa. Se quiser que ele seja excelente a falar sobre o seu produto, pode fornecer uma série de exemplos das melhores chamadas de vendas da sua empresa.
Se o modelo for de fonte aberta, pergunte a si próprio se a sua equipa tem capacidade de engenharia suficiente para afinar um modelo.
Se o modelo for de código fechado e fornecido como um serviço - GPT-4 ou Claude - pode normalmente pedir aos seus engenheiros para afinarem os modelos personalizados utilizando APIs. Normalmente, o preço aumenta substancialmente através deste método, mas há pouca ou nenhuma manutenção.
Mas para muitos casos de utilização, o ajuste fino não é o primeiro passo para otimizar o seu modelo.
Um bom exemplo de afinação é a criação de um bot de conhecimento para conhecimento estático. Ao dar exemplos de perguntas e respostas, deve ser capaz de as responder no futuro sem procurar a resposta. Mas não é uma solução prática para informação em tempo real.
3. Aprendizagem N-shot
A forma mais rápida de começar a melhorar a qualidade das respostas é fornecer exemplos numa única chamada à API LLM .
Zero-shot - dar zero exemplos do que está procurando em uma resposta - é como a maioria de nós usa ChatGPT. Adicionar um exemplo (ou one-shot) é geralmente suficiente para ver uma melhoria substancial na qualidade da resposta.
Mais do que um exemplo é considerado n-shot. O n-shot não altera o modelo, ao contrário do fine-tuning. Está simplesmente a dar exemplos antes de pedir uma resposta, sempre que faz uma pergunta.
Mas esta estratégia não pode ser utilizada em demasia: os modelos LLM têm um tamanho máximo de contexto e o seu preço depende do tamanho da mensagem. O ajuste fino pode eliminar a necessidade de n exemplos de disparos, mas leva mais tempo a ser feito corretamente.
4. Técnicas de engenharia rápidas
Existem outras técnicas de engenharia rápida, como a cadeia de pensamento, que obrigam os modelos a pensar em voz alta antes de darem uma resposta.
Existe também o encadeamento de prompts , que incentiva os modelos a dividir tarefas complexas em passos mais pequenos, executando vários prompts em sequência.
Estas estratégias podem aumentar significativamente a qualidade e a fiabilidade das respostas — especialmente para tarefas que exigem muito raciocínio — mas geralmente têm o custo de respostas mais longas, maior utilização de tokens e desempenho mais lento.
Isto aumenta a qualidade da resposta, mas à custa da duração, custo e rapidez da resposta.
Como construir um LLM Agente em 6 Passos

1. Definir objectivos
O primeiro passo para criar um agente de IA ou um chatbot é definir exatamente o que pretende que ele realize.
Esclareça o que pretende que o agente LLM faça, quer se trate de ajudar com os pedidos de informação dos clientes, gerar conteúdos ou realizar tarefas específicas.
A identificação de objectivos claros irá moldar a instalação e a configuração do agente.
2. Escolher uma plataforma de IA
As melhores plataformas de IA dependerão inteiramente dos seus objectivos e necessidades.
Selecione uma plataforma que corresponda aos seus requisitos, considerando factores como opções de personalização, capacidades de integração, facilidade de utilização e suporte.
A plataforma deve:
- Apoiar o caso de utilização pretendido
- Ofereça a sua preferência LLMs
- Oferecer capacidades de integração
3.º Configurar o LLM
Com base nas opções da plataforma, escolha um LLM pré-construído ou ajuste um modelo para tarefas especializadas, se necessário.
Muitas plataformas oferecem modelos linguísticos integrados que são pré-treinados e estão prontos a utilizar.
Se estiver interessado em personalizar a sua utilização de LLM , leia o nosso artigo sobre como escolher uma opção personalizada de LLM para o seu projeto de IA do nosso engenheiro de crescimento, Patrick Hamelin.
4.º Integrar ferramentas
A maioria das plataformas oferece opções de integração para ferramentas externas. Ligue quaisquer APIs, bases de dados ou recursos a que o seu agente precise de aceder, como dados de CRM ou informações em tempo real.
5.º Teste e refine
Teste o agente exaustivamente utilizando as ferramentas de teste incorporadas na plataforma. Ajuste os parâmetros, as frases dos pedidos e os fluxos de trabalho com base nos resultados dos testes para garantir que o agente tem um bom desempenho em cenários reais.
6.º Implantar e monitorizar
Utilize as ferramentas de monitorização da plataforma para acompanhar as interações e o desempenho do agente após a implementação.
Recolher informações e aperfeiçoar a configuração conforme necessário, tirando partido de quaisquer mecanismos de feedback fornecidos pela plataforma.
Implantar um agente LLM personalizado
LLM Os agentes de IA estão a atingir taxas de adoção em massa entre as empresas - no serviço ao cliente, nas operações internas e no comércio eletrónico. As empresas que demoram a adotar sentirão as consequências de perder a onda da IA.
Botpress é uma plataforma de agentes de IA infinitamente extensível criada para empresas. A nossa stack permite aos programadores criar agentes LLM com todas as capacidades de que possa necessitar.
O nosso conjunto de segurança melhorado garante que os dados dos clientes estão sempre protegidos e totalmente controlados pela sua equipa de desenvolvimento.
Comece a construir hoje. É grátis.
Ou contacte a nossa equipa para saber mais.