Disponible desde la versión 6.2.0-Xenon
Introducción
En este tutorial se va a crear un chatbot sencillo al que preguntar sobre cualquier tema que el usuario quiera. Concretamente, se va a utilizar los servicios de OpenAI, por lo que se requiere de una cuenta de ChatGPTPlus para poder seguir el ejemplo.
Para crear el chatbot, se van a utilizar los siguientes nodos:
ChatOpenAI: como componente de chat.
Conversation Chain: para generar el asistente de chat en el que introducir información y recibir las respuestas.
Buffer Memory: componente para recordar la conversación actual.
Pasos previos
Acceder a la instancia de LLM Flow
El primer paso de todos consistirá en acceder a la instancia de LLM Flow del usuario. Para ello, se navegará al menú de Machine Learning e IA > Gestión de Flujos LLM.
Se accederá al listado de instancias de LLM Flow. Si no existe todavía ninguna, el usuario tendrá que crear una pulsando en el botón de «+» situado en la parte superior derecha de la pantalla.
Todo usuario, excepto aquellos con rol de «administrador», sólo podrán tener una única instancia de LLM Flow creada en todo momento.
Se mostrará entonces el asistente de creación de una nueva instancia:
Únicamente habrá que introducir el nombre con el que se quiere identificar la instancia, y pulsar en el botón de «Crear».
Se regresará entonces al listado de instancias del usuario, donde ya aparecerá la instancia recién creada.
Se haya creado una nueva, o si ya existiese, en primer lugar habrá que iniciar la instancia. Para ello, se pulsará en el botón de arrancar instancia «▶» situado en las opciones del listado.
Pasados unos segundos, o en caso de que ya se encontrase arrancada la instancia, se mostrará el botón de parar instancia «⏹».
Con la instancia arrancada, para acceder a ella habrá que pulsar en el botón de mostrar instancia «👁» situado en las opciones de la instancia.
Crear un nuevo flujo
Tras acceder a la instancia de LLM Flow, se mostrará la pantalla de chatflows disponibles. Si no se ha creado ninguno hasta ahora, ésta se mostrará sin contenido.
Para crear un nuevo chatflow, se pulsará en el botón de «+ Add New» situado en la parte derecha:
Esto abrirá una nueva ventana con el liezo de creación de nodos.
Para ir añadiendo nodos, se pulsará en el botón de «+» situado en la parte derecha.
Se abrirá entonces una barra lateral en la que se podrá escoger el nodo que se necesite.
Para guardar el flujo, se pulsará el botón de «💾»:
Se mostrará entonces un modal en el que introducir el nombre del chatflow con el que guardarlo:
Creación del chatbot
Para crear el chatbot, se irán añadiendo los siguientes nodos con sus respectivas configuraciones.
ChatOpenAI
Este nodo se encuentra en LangChain > Chat Models > ChatOpenAI.
Una vez arrastrado al lienzo, por defecto tiene el siguiente aspecto:
Se tienen que configurar los siguientes parámetros:
Connect Credential: hace referencia al token de usuario de OpenAI, la propietaria de ChatGPT. Si se tiene una introducida, se podrá seleccionar desde el desplegable. En caso de no disponer aun de ninguna, se podrá crear una inmediatamente.
Model Name: el modelo de ChatGPT que se quiere utilizar.
Los modelos disponibles dependerán de la versión de Flowise instalada en dicho momento. Cada modelo implica un coste diferente. Consultar precios en OpenAI.
Temperature: hiperparámetro que afecta al cálculo de las probabilidades de los tokens cuando se genera la salida a través del LLM. El valor de la temperatura oscila entre 0 y 2, donde los valores más bajos indican un mayor determinismo y los más altos una mayor aleatoriedad.
Allow Image Uploads: permite que el usuario incluya una imagen para preguntar sobre ella. Si se activa esta opción, se utilizará automáticamente el modelo de «gpt-4-vision-preview» cuando la imagen se suba al chat.
Additional Parameters: es posible configurar otros parámetros
La documentación de este módulo se encuentra en este enlace:
https://github.com/FlowiseAI/FlowiseDocs/blob/main/en/integrations/langchain/chat-models/azure-chatopenai.md
a