/
Serviciado de Modelos con MLFlow como microservicios

Serviciado de Modelos con MLFlow como microservicios

En la nueva versión de plataforma, se podrán desplegar modelos basados en el models manager de forma centralizada con lo que cualquier modelo subido al models manager, será desplegable de forma directa y automatizada en plataforma como un contenedor/pod en el caas destino, así como dotarlo de la seguridad de plataforma de forma directa.

Se hará uso del modulo de despliegue de microservicios de plataforma:

Se podrá elegir un experimento existente del Models Manager, y una vez seleccionado el experimento, elegiremos una ejecución a desplegar.

Junto con las propias capacidades del models manager para generar contenedores desde un runid de un experimento https://onesaitplatform-es.refined.site/space/DOC/3481042947/Serviciado+de+modelos+desde+línea+de+comandos#Construcción-de-una-imagen-de-docker-con-el-manager-de-modelos

 

Related content

Serviciado de modelos desde línea de comandos
Serviciado de modelos desde línea de comandos
More like this
Serve Models from MLFlow as Microservice
Serve Models from MLFlow as Microservice
More like this
Un vistazo al Manager de Modelos
Un vistazo al Manager de Modelos
More like this
Gestión del Ciclo de Vida ML: Integración MLflow en plataforma
Gestión del Ciclo de Vida ML: Integración MLflow en plataforma
More like this
Uso del manager de modelos desde los notebooks
Uso del manager de modelos desde los notebooks
More like this
¿Cómo publicar un Modelo como Microservicio (Model as a Service - MaaS)?
¿Cómo publicar un Modelo como Microservicio (Model as a Service - MaaS)?
More like this