Skip to end of metadata
Go to start of metadata

You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 13 Current »

Vista de Componentes

Este diagrama representa los componentes que componen la plataforma para apoyar su funcionalidad.

(*) El símbolo UI en el diagrama indica que un módulo determinado tiene una interfaz de usuario de configuración integrada en el Panel de Control.

Estos módulos están organizados en estas capas:

  • Adquisition Layer:  ofrece los mecanismos para la captación de los datos desde los Sistemas de Captación, bien sea de forma activa desde estos sistemas o conectando con ellos. Abstrae la información de los Sistemas de Captación con un enfoque semántico estándar (Entidades/Ontologías)

  • Knowledge Layer: ofrece el soporte para el procesado de los datos, la incorporación de valor y la transformación de servicio. Recibe datos tanto de la Capa de Adquisición, como de la Capa de Publicación, En esta capa se encuentran las funcionalidades que permiten el tratamiento y análisis de los datos para generar nuevos datasets o modificar/completar los existentes.

  • Publication Layer: facilita la construcción de servicios a partir de la información gestionada por plataforma, ofreciendo interfaces sobre la Capa de conocimiento, estableciendo políticas de seguridad y ofreciendo conectores para que sistemas externos puedan acceder a la Plataforma.

  • Management & Support Layer: esta capa transversal da soporte al resto de funcionalidades ofreciendo servicios como auditoría, monitorización, seguridad, etc, además de la consola web y APIS REST para el desarrollo sobre plataforma.

A continuación veremos el detalle de cada una de ellas.

Acquisition layer

  • Digital Broker: este Broker permite que dispositivos, sistemas, aplicaciones, sitios web y aplicaciones móviles se comuniquen con la plataforma a través de protocolos compatibles. También ofrece APIs en diferentes lenguajes.

  • Kafka Server: la plataforma integra un clúster Kafka que permite la comunicación con sistemas que utilizan este protocolo de intercambio, generalmente porque manejan un gran volumen de información y requieren baja latencia.

  • DataFlow: este componente permite configurar flujos de datos desde una interfaz web. Estos flujos están compuestos por un origen (que pueden ser ficheros, bases de datos, servicios TCP, HTTP, colas, ...o la plataforma IoT Broker), una o varias transformaciones (procesadores en Python, Groovy, JavaScript, ... ) y uno o varios destinos (mismas opciones que el origen).

  • Digital Twin Broker: este Broker permite la comunicación entre los Digital Twins y la plataforma, y entre ellos. Soporta REST y Web Sockets como protocolos.

  • Video Broker: permite conectarse a las cámaras a través del protocolo WebRTC y procesar el flujo de vídeo asociándolo a un algoritmo (detección de personas, OCR, etc.).

Knowledge layer

  • Semantic Information Broker: una vez adquirida la información, ésta llega a este módulo, que valida si el cliente Broker tiene los permisos para realizar esa operación (insertar, consultar, ...) o no, y a continuación dota de contenido semántico a la información recibida, validando si la información enviada se corresponde con esa semántica (ontología) o no.

  • Semantic Data Hub: este módulo actúa como hub de persistencia. A través del motor de consultas, permite persistir y consultar en la base de datos subyacente donde se almacena la ontología, donde estos componentes son compatibles con MongoDB, Elasticsearch, bases de datos relacionales, bases de datos gráficas, etc.

  • Streaming engines: soportadas por:

    • Flow Engine: this engine allows to create process flows both visually and easily. It is built in the node network. A separate instance is created for each user.

    • Digital Twin Orchestrator: la plataforma permite orquestar visualmente la comunicación entre Gemelos Digitales a través del propio motor FlowEngine. Esta orquestación crea una comunicación bidireccional con los gemelos digitales.

    • Rule engine: permite definir reglas de negocio desde una interfaz web que pueden aplicarse a la entrada de datos o programarse

    • SQL Streaming Engine: permite definir secuencias complejas a medida que llegan los datos en un lenguaje similar a SQL.

  • Data Grid: este componente actúa como una caché distribuida, así como una cola de comunicación interna entre los módulos.

  • Notebooks: este módulo ofrece una interfaz web en varios lenguajes para que el equipo de Data Scientist pueda crear fácilmente modelos y algoritmos en sus lenguajes favoritos (Spark, Python, R, SQL, Tensorflow...).

Publication Layer

  • API Manager: este módulo permite crear visualmente las API en las ontologías gestionadas por la plataforma. También ofrece un Portal API para el consumo de las APIs y un Gateway API para invocar las APIs.

  • Dashboard Engine: este motor permite crear, visualmente y sin necesidad de programación, cuadros de mando completos sobre la información (ontologías almacenadas en la plataforma), y luego ponerlos a disposición para su consumo fuera o dentro de la plataforma.

Management layer

  • Control panel: la plataforma ofrece una completa consola web que permite una gestión visual de los elementos de la plataforma a través de una interfaz basada en web. Toda esta configuración se almacena en una base de datos de configuración. Ofrece una API REST para gestionar todos estos conceptos y una consola de monitorización para mostrar el estado de cada módulo.

  • Identity Manager: permite definir cómo autenticar y autorizar a los usuarios y sus roles, directorio de usuarios (LDAP, ...), protocolos (OAuth2, ...)

  • CaaS Console: permite administrar desde una consola web el cluster Kubernetes y todos los componentes desplegados en él, incluyendo las actualizaciones de versión y rollback, el número de contenedores, las reglas de escalabilidad, etc.

Support layer

  • MarketPlace: permite definir los activos generados en la plataforma (API, cuadros de mando, algoritmos, modelos, reglas, ...) y publicarlos para que otros usuarios puedan utilizarlos.

  • GIS viewers: Desde la consola se pueden crear capas SIG (a partir de ontologías, servicios WMS, KML, imágenes) y visores SIG (actualmente bajo tecnología Cesium).

  • File manager: esta utilidad permite subir y gestionar archivos desde la consola web o desde la API REST. Estos archivos se gestionan con la seguridad de la plataforma.

  • Web application server: la plataforma permite servir aplicaciones web (HTML + JS) cargadas a través de la consola web de la plataforma.

  • Configuration Manager: esta utilidad permite gestionar configuraciones (en formato YAML) de las aplicaciones de la plataforma por entornos.

Main Base Technologies (Tecnologías Base)

MODULE

TECHNOLOGY

Base Technology

Java =>8

Spring Boot 3.X

Control Panel

Spring Boot over Thymeleaf.

ConfigDB on MariaDB, Postgresql,...

Semantic Data Hub

MongoDB as reference implementation for online storage.

MinIO+Presto as reference implementation for historical and analytics storage.

Relational Databases supported.

ElasticSearch, TimeScaleDB, CosmosDB, DocumentDB,… supported.

DataFlow

StreamSets (and some components) integrated on Platform

Flow Engine

Node-red: Configuration and development on Node-red (components, multitenant,...)

Digital Broker

Spring Boot development

Kafka for high performance streaming.

MQTT Moquette for bidirectional communication.

WebSockets for web communication.

API Manager

Development on Spring Boot

Integration with Gravitee

Dashboard Engine

Angular + Gridster as the engine.

ODS as reference components library

eCharts as library for gadgets.

Notebooks

Apache Zeppelin (including Interpreter)

DataGrid & Cache

Hazelcast

Identity Manager

Reference Implementation: Development over Spring Cloud Security

Advanced Implementacion: Integration with Keycloak

BPM Engine

Camunda

Deployment

Containerized modules on Docker

Orchestrated by Kubernetes

Managed by CaaS Rancher or OpenShift

  • No labels