Video on demand service based on inference emotions user

El tráfico de video en las redes aumenta de forma exponencial, y con ello la cantidad de tiempo que se debe emplear navegando por catálogos de contenidos. Por ello, son necesarios sistemas de video bajo demanda [VoD] que tengan en cuenta las emociones como parámetro para agilizar el acceso a los con...

Full description

Autores:
Moncayo, Luis Alejandro Solarte
Herrera, José Luis Arciniegas
Dorado, Diego Fabián Durán
Golondrino, Gabriel Elías Chanchí
Barragán, Mauricio Sánchez
Tipo de recurso:
Article of investigation
Fecha de publicación:
2016
Institución:
Universidad ICESI
Repositorio:
Repositorio ICESI
Idioma:
eng
spa
OAI Identifier:
oai:repository.icesi.edu.co:10906/81512
Acceso en línea:
http://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/view/2286
http://hdl.handle.net/10906/81512
https://doi.org/10.18046/syt.v14i38.2286
Palabra clave:
Rights
openAccess
License
https://creativecommons.org/licenses/by-nc-nd/4.0/
Description
Summary:El tráfico de video en las redes aumenta de forma exponencial, y con ello la cantidad de tiempo que se debe emplear navegando por catálogos de contenidos. Por ello, son necesarios sistemas de video bajo demanda [VoD] que tengan en cuenta las emociones como parámetro para agilizar el acceso a los contenidos. Este artículo presenta el diseño e implementación de un servicio de VoD basado en emociones, cuyos componentes principales son: el catálogo de contenidos musicales conformado y el sistema hardware-software que permite establecer el nivel de estrés mental y la inferencia de emociones del consumidor, mientras éste interactúa con el sistema. El producto final fue sometido a pruebas de eficiencia y estrés, con resultados satisfactorios: el tiempo empleado por el servidor web con 200 conexiones secuenciales, osciló entre 0,050 y 0,675 segundos, y entre 0,030 y 0,675 segundos, cuando son simultaneas. Logró además responder adecuadamente ante 20.000 conexiones secuenciales, con tiempos de respuesta de menos de 1 a 36 segundos, y soportar, sin colapsar, 18.000 conexiones concurrentes, con tiempos de respuesta entre 7 y 62 segundos. El proyecto proporciona un servicio open source que plantea las bases para futuros proyectos.