...
Para crear el chatbot, se irán añadiendo los siguientes nodos con sus respectivas configuraciones.
ChatOpenAI
Este nodo se sirve para configurar ChatGPT. Se encuentra en LangChain > Chat Models > ChatOpenAI.
...
Una vez arrastrado al lienzo, por defecto tiene el siguiente aspecto:
...
Se tienen que configurar los siguientes parámetrosEste nodo contiene las siguientes propiedades:
Connect Credential: hace referencia al token de usuario de OpenAI, la propietaria de ChatGPT. Si se tiene una introducida, se podrá seleccionar desde el desplegable. En caso de no disponer aun de ninguna, se podrá crear una inmediatamente.
...
Note |
---|
Los modelos disponibles dependerán de la versión de Flowise instalada en dicho momento. Cada modelo implica un coste diferente. Consultar los precios en de OpenAI. |
Temperature: hiperparámetro que afecta al cálculo de las probabilidades de los tokens cuando se genera la salida a través del LLM. El valor de la temperatura oscila entre 0 y 2, donde los valores más bajos indican un mayor determinismo y los más altos una mayor aleatoriedad.
Allow Image Uploads: permite que el usuario incluya una imagen para preguntar sobre ella. Si se activa esta opción, se utilizará automáticamente el modelo de «gpt-4-vision-preview» cuando la imagen se suba al chat.
Additional Parameters: es posible configurar otros parámetros más avanzados del nodo, como son:
Max Tokens: el número máximo número de tokens que se aceptan pueden generar en la entrada finalización del chat. Este valor puede utilizarse para controlar los costes del texto generado a través de la API.
Top Probability: una alternativa al muestreo con temperatura, en la que el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así, 0,1 significa que sólo se consideran los tokens que comprenden el 10% superior de masa de probabilidad. No se recomienda utilizar a la vez que la temperatura.
Frequency Penalty: valor entre -2,0 y 2,0. Los valores positivos penalizan los tokens nuevos en función de su frecuencia existente en el texto hasta el momento, lo que disminuye la probabilidad de que el modelo repita textualmente la misma línea.
Presence Penalty: número comprendido entre -2,0 y 2,0. Los valores positivos penalizan los tokens nuevos en función de si aparecen en el texto hasta el momento, lo que aumenta la probabilidad de que el modelo hable de temas nuevos.
Timeout: tiempo máximo de espera para recibir la respuesta.
BasePath: -
Proxy URL: en caso de encontrarse tras un proxy, se podrá indicar aquí la dirección del mismo.
Stop Sequence: lista de palabras reservadas para la generación. Se puede usar una coma para separar varias palabras reservadas.
BaseOptions: JSON en el que añadir otras opciones.
Image Resolution: la resolución de la imagen que será utilizada por el modelo para analizarla. Se puede configurar en «low», «high» o «auto».
Además, este nodo cuenta con dos conexiones a considerar:
Cache: que se puede conectar a otro nodo que almacene la información del chat.
ChatOpenAI: que se puede conectar a una cadena conversacional para generar el chatbot.
La documentación de este módulo se
...
puede consultar en
...
Para este tutorial, únicamente se configurarán las siguientes opciones:
Connect Credential: con el token de OpenAI.
Model Name: se utilizará «gpt-3.5-turbo».
Temperature: 0,9
Conversation Chain
Este nodo será el encargado de llevar a cabo la conversación, pudiendo definir el transfondo de la conversación y moderando sus contenidos. Se encuentra en LangChain > Chains > Conversation Chain.
...
Una vez arrastrado al lienzo, por defecto tiene el siguiente aspecto:
...
Este nodo sólo tiene una propiedad configurable:
Additional Parameters:
System Message:
a