Video on demand service based on inference emotions user
El tráfico de video en las redes aumenta de forma exponencial, y con ello la cantidad de tiempo que se debe emplear navegando por catálogos de contenidos. Por ello, son necesarios sistemas de video bajo demanda [VoD] que tengan en cuenta las emociones como parámetro para agilizar el acceso a los con...
- Autores:
-
Moncayo, Luis Alejandro Solarte
Herrera, José Luis Arciniegas
Dorado, Diego Fabián Durán
Golondrino, Gabriel Elías Chanchí
Barragán, Mauricio Sánchez
- Tipo de recurso:
- Article of investigation
- Fecha de publicación:
- 2016
- Institución:
- Universidad ICESI
- Repositorio:
- Repositorio ICESI
- Idioma:
- eng
spa
- OAI Identifier:
- oai:repository.icesi.edu.co:10906/81512
- Acceso en línea:
- http://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/view/2286
http://hdl.handle.net/10906/81512
https://doi.org/10.18046/syt.v14i38.2286
- Palabra clave:
- Rights
- openAccess
- License
- https://creativecommons.org/licenses/by-nc-nd/4.0/
Summary: | El tráfico de video en las redes aumenta de forma exponencial, y con ello la cantidad de tiempo que se debe emplear navegando por catálogos de contenidos. Por ello, son necesarios sistemas de video bajo demanda [VoD] que tengan en cuenta las emociones como parámetro para agilizar el acceso a los contenidos. Este artículo presenta el diseño e implementación de un servicio de VoD basado en emociones, cuyos componentes principales son: el catálogo de contenidos musicales conformado y el sistema hardware-software que permite establecer el nivel de estrés mental y la inferencia de emociones del consumidor, mientras éste interactúa con el sistema. El producto final fue sometido a pruebas de eficiencia y estrés, con resultados satisfactorios: el tiempo empleado por el servidor web con 200 conexiones secuenciales, osciló entre 0,050 y 0,675 segundos, y entre 0,030 y 0,675 segundos, cuando son simultaneas. Logró además responder adecuadamente ante 20.000 conexiones secuenciales, con tiempos de respuesta de menos de 1 a 36 segundos, y soportar, sin colapsar, 18.000 conexiones concurrentes, con tiempos de respuesta entre 7 y 62 segundos. El proyecto proporciona un servicio open source que plantea las bases para futuros proyectos. |
---|