...
Temperature: hiperparámetro que afecta al cálculo de las probabilidades de los tokens cuando se genera la salida a través del LLM. El valor de la temperatura oscila entre 0 y 2, donde los valores más bajos indican un mayor determinismo y los más altos una mayor aleatoriedad.
Allow Image Uploads: permite que el usuario incluya una imagen para preguntar sobre ella. Si se activa esta opción, se utilizará automáticamente el modelo de «gpt-4-vision-preview» cuando la imagen se suba al chat.
Additional Parameters: es posible configurar otros parámetros más avanzados del nodo, como:
Max Tokens: el máximo número de tokens que se aceptan en la entrada del chat
Top Probability:
Frequency Penalty:
Presence Penalty
Timeout
BasePath:
Proxy URL:
Stop Sequence:
BaseOptions:
Image Resolution: la resolución de la imagen que será utilizada por el modelo para analizarla. Se puede configurar en «low», «high» o «auto».
La documentación de este módulo se encuentra en este enlace:
...