...

  • Temperature: hiperparámetro que afecta al cálculo de las probabilidades de los tokens cuando se genera la salida a través del LLM. El valor de la temperatura oscila entre 0 y 2, donde los valores más bajos indican un mayor determinismo y los más altos una mayor aleatoriedad.

  • Allow Image Uploads: permite que el usuario incluya una imagen para preguntar sobre ella. Si se activa esta opción, se utilizará automáticamente el modelo de «gpt-4-vision-preview» cuando la imagen se suba al chat.

  • Additional Parameters: es posible configurar otros parámetros más avanzados del nodo, como:

    • Max Tokens: el máximo número de tokens que se aceptan en la entrada del chat

    • Top Probability:

    • Frequency Penalty:

    • Presence Penalty

    • Timeout

    • BasePath:

    • Proxy URL:

    • Stop Sequence:

    • BaseOptions:

    • Image Resolution: la resolución de la imagen que será utilizada por el modelo para analizarla. Se puede configurar en «low», «high» o «auto».

La documentación de este módulo se encuentra en este enlace:

...