Serviciado de Modelos con MLFlow como microservicios

En la nueva versión de plataforma, se podrán desplegar modelos basados en el models manager de forma centralizada con lo que cualquier modelo subido al models manager, será desplegable de forma directa y automatizada en plataforma como un contenedor/pod en el caas destino, así como dotarlo de la seguridad de plataforma de forma directa.

Se hará uso del modulo de despliegue de microservicios de plataforma:

Se podrá elegir un experimento existente del Models Manager, y una vez seleccionado el experimento, elegiremos una ejecución a desplegar.

Junto con las propias capacidades del models manager para generar contenedores desde un runid de un experimento https://onesaitplatform-es.refined.site/space/DOC/3481042947/Serviciado+de+modelos+desde+línea+de+comandos#Construcción-de-una-imagen-de-docker-con-el-manager-de-modelos