Seguridad de modelos de aprendizaje profundo: Análisis de vulnerabilidad a ataques de data poisoning en el modelo LUCID para la detección de ataques DDoS.
Este estudio aborda la vulnerabilidad de modelos de aprendizaje profundo a ataques de data poisoning, centrando el análisis en el modelo LUCID para la detección de ataques DDoS. Se emplearon técnicas de modificación de tráfico de red para explorar cómo la manipulación de datos puede influir en la ca...
- Autores:
-
Castaño Lozano, Juan Felipe
Guillén Fonseca, Sergio Andrés
- Tipo de recurso:
- Trabajo de grado de pregrado
- Fecha de publicación:
- 2024
- Institución:
- Universidad de los Andes
- Repositorio:
- Séneca: repositorio Uniandes
- Idioma:
- spa
- OAI Identifier:
- oai:repositorio.uniandes.edu.co:1992/74780
- Acceso en línea:
- https://hdl.handle.net/1992/74780
- Palabra clave:
- Ataques DDoS
Data poisoning
Aprendizaje profundo
Modelo LUCID
Seguridad cibernética
DDoS attacks
Deep learning
LUCID model
Cyber security
Ingeniería
- Rights
- openAccess
- License
- Attribution-NonCommercial-NoDerivatives 4.0 International
Summary: | Este estudio aborda la vulnerabilidad de modelos de aprendizaje profundo a ataques de data poisoning, centrando el análisis en el modelo LUCID para la detección de ataques DDoS. Se emplearon técnicas de modificación de tráfico de red para explorar cómo la manipulación de datos puede influir en la capacidad del modelo de identificar tráfico legítimo y malicioso. A través de un enfoque experimental que incluyó pruebas de caja blanca y negra, se evaluaron los efectos de diferentes estrategias de envenenamiento sobre la precisión, sensibilidad y robustez del modelo. Los resultados revelan que, a pesar de la eficacia inicial de LUCID en la clasificación de tráfico, su rendimiento se ve comprometido significativamente bajo condiciones de datos envenenados, lo que destaca la importancia de desarrollar estrategias más sofisticadas para fortalecer la seguridad en sistemas de detección de DDoS. |
---|