Integração com o Chat GPT

Modificado em Qui, 29 Ago na (o) 9:39 AM

Agora a integração com o Chat GPT está nativo no Wide Chat, trazendo alguns parâmetros de configuração dentro da tela do Administrador e na tela de atendimento do agente.


Observação: Necessário criar conta no Open AI e criar o APIKEY de consulta. Segue link para obter chave para integração. Caso tenha dúvidas de como realizar a criação do API KEY, temos uma documentação de apoio neste link.


1. Usando Dentro do Fluxo de Atendimento

Contextos

É onde é definido como o sistema deve se comportar para responder as perguntas feitas no bot. Isso é uma melhoria considerável no uso da NLP, não sendo necessário criar as formas que o cliente vai perguntar, somente a diretriz de como o CHAT GPT deve responder.


Observação: Sempre limitar o contexto, pois o Chat GPT é uma ferramenta que sempre dará uma resposta. Para garantir que não responda algo desejado, usamos a função do contexto para isso, como o exemplo abaixo, usado para perguntas e respostas sobre a empresa/produto:


Observe que foi usada a expressão: “Encontrar melhor assunto entre os itens a seguir e imprimi-lo literalmente:”. E então foram listadas todas as opções que o bot deve avaliar, e caso encontre um assunto relacionado à pergunta, retorna o conteúdo do item


Abaixo texto usado dentro da FAQ Wide Chat:

Encontrar melhor assunto entre os itens a seguir e imprimi-lo literalmente:

1. Vídeo informativo sobre as 10 principais funcionalidades do Wide Chat: capacidade de unificar canais; fluxo de atendimento; webchat ativo; monitoramento em tempo real; geração de relatórios; integrações; criação de scripts; análise de sentimentos; transcrição de áudio (STT); tradução automática bilateral. Link: https://basedeconhecimento.intelbras.com.br/support/solutions/articles/151000087117

2. Tutorial de como alterar a senha de usuário na plataforma Wide Chat. Link: https://basedeconhecimento.intelbras.com.br/support/solutions/articles/151000038122

3. Tutorial de apoio para ensinar a criar a credencial de acesso dentro da RD Station, para que possa ser consumido as API´s do produto através do Wide Chat. Link: https://basedeconhecimento.intelbras.com.br/support/solutions/articles/151000087544

Senão imprimir: Este assunto não é válido!


Observação: Sempre limitar o contexto, pois o Chat GPT é uma ferramenta que sempre dará uma resposta. Para garantir que não responda algo indesejado, usamos sempre dentro do contexto, a seguinte informação: “Senão imprimir: Este assunto não é válido!”.



Criar API REST - Uso Fluxo de Atendimento


Acessar a parte de Integrações - Rest - Aplicativos e incluir um novo modelo:


Abaixo um exemplo do modelo:


Cabeçalho:

{
  "Content-Type": "application/json",
  "Authorization": "Bearer {{TOKEN}}"
}

Body:

{
  "model": "gpt-3.5-turbo-16k",
  "messages": [
    {
      "role": "system",
      "content": "{{CONTEXT_ASSISTANT}}"
    },
    {
      "role": "user",
      "content": "{{PROMPT}}"
    }
  ],
  "temperature": 1,
  "max_tokens": 256,
  "top_p": 1,
  "frequency_penalty": 0,
  "presence_penalty": 0
}



Exemplo da montagem do fluxo:


Definir TOKEN


Definir entrada de dados

Definir contexto



Definir RPA

{
  "choices": [
    {
      "message": {
        "content": "{{CHOICES}}"
      }
    }
  ]
}

Importante criar a variável {{CHOICES}} no sistema para armazenar os dados da consulta.



Definir condição


Exemplo tratamento Sucesso e Falha




Importante: O modelo "gpt-3.5-turbo-16k" permite somente 16000 tokens de texto. Lembrar sempre verificar via este link https://platform.openai.com/tokenizer a quantidade de tokens do texto utilizado, pois caso contrário o ChatGPT dará erro na consulta:




2. Copilot


Essa função serve para habilitar na tela do agente para tudo que o cliente encaminhar de mensagens, usar o ChatGPT para sugerir uma modelo resposta a pergunta feita:



Para seu funcionamento, basta criar em Integrações - Rest, o aplicativo Copilot, como abaixo:

Cabeçalho:

{
  "Content-Type": "application/json",
  "Authorization": "Bearer {{TOKEN}}"
}

Body:

{
  "model": "gpt-4-1106-preview",
  "messages": [
    {
      "role": "user",
      "content": "{{PROMPT}}"
    }
  ]
}


Na parte do Copilot (ainda na configuração da Integração - Rest - Aplicativos), é possível setar o contexto fechado de pesquisa de respostas desejados para utilização:



E dentro da configuração da equipe, é habilitado ou não a utilização da função, escolhendo qual o aplicativo vai usar:

 



Pós atendimento


Dentro desta opção, possui dois tipos de resumos apresentado na tela de relatório de atendimento:


Resumo de Atendimento: Função que o ChatGPT é usado para fazer um resumo da conversa, disponível no relatório da conversa.

Análise de Sentimento: Função que o ChatGPT é usado para realizar como foi o sentimento do atendimento, ao final do atendimento, disponível no relatório da conversa. 


Abaixo o modelo da API Rest para resumo do atendimento:


Cabeçalho:

{
  "Content-Type": "application/json",
  "Authorization": "Bearer {{TOKEN}}"
}

Body:

{
  "model": "gpt-3.5-turbo",
  "messages": [
    {
      "role": "user",
      "content": "{{PROMPT}}"
    }
  ]
}














Este artigo foi útil?

Que bom!

Obrigado pelo seu feedback

Desculpe! Não conseguimos ajudar você

Obrigado pelo seu feedback

Deixe-nos saber como podemos melhorar este artigo!

Selecione pelo menos um dos motivos
A verificação do CAPTCHA é obrigatória.

Feedback enviado

Agradecemos seu esforço e tentaremos corrigir o artigo