Implementación de servicios AWS

En el siguiente trabajo de proyecto se demostrará de manera detallada la implementación de servicios en la nube del proveedor AWS (Amazon Web Services), siendo este uno de los más relevantes a nivel global. Se explicará de manera detallada la metodología para acceder y utilizar servicios como la cre...

Full description

Autores:
Santos Ortiz, Jhonatan Sneider
Pérez Polo, Luís Ángel
Navarro Ibarra, Néstor Andrés
Tipo de recurso:
Trabajo de grado de pregrado
Fecha de publicación:
2025
Institución:
Corporación Universitaria Remington
Repositorio:
Repositorio institucional Uniremington
Idioma:
spa
OAI Identifier:
oai:repositorio.uniremington.edu.co:123456789/6932
Acceso en línea:
https://repositorio.uniremington.edu.co/handle/123456789/6932
Palabra clave:
Despliegue de aplicaciones en la nube
Máquinas virtuales
Contenedores Docker
Balanceadores de carga
Auto Scaling
Servicios de AWS
Análisis de datos
Globalización
Programación en internet
Rights
openAccess
License
Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
Description
Summary:En el siguiente trabajo de proyecto se demostrará de manera detallada la implementación de servicios en la nube del proveedor AWS (Amazon Web Services), siendo este uno de los más relevantes a nivel global. Se explicará de manera detallada la metodología para acceder y utilizar servicios como la creación de máquinas virtuales en función de buscar optimización de recursos y sacar el máximo potencial de AWS en relación con el costo de sus servicios, todo esto desde nuestra propia VPC (Virtual Private Cloud). La creación de contenedores Docker para el despliegue de aplicaciones se encuentra incluida como actividad de este proyecto, además de la configuración de balanceadores de carga que permitan optimizar y asegurar el correcto flujo de peticiones a las aplicaciones desplegadas en los servicios de AWS (EC2 y ECS), añadiendo el servicio de Auto escalado AWS Auto Scaling aplicado tanto a instancias EC2 como a contenedores Docker dentro de un Cluster, sirviéndonos como práctica visual de cómo al saturarse una instancia o contenedor en función de políticas de rendimiento que nosotros mismos asignamos, el servicio de Auto Scaling genera una instancia o una tarea (contenedor) nueva con el fin de mantener activa para los usuarios la aplicación desplegada. Entre los entornos de seguridad se dará muestra de cómo se asignaron los Firewalls de los balanceadores de carga para permitir la conexión a las instancias creadas y el diseño de rangos de puerto permitidos en el balanceador de carga de los contenedores para permitir conexión con las tareas creadas por el Auto Scaling con puertos dinámicos.