Ir al contenido

Contribuir al modelo de amenazas

Contribuir al modelo de amenazas de OpenClaw

Sección titulada «Contribuir al modelo de amenazas de OpenClaw»

Gracias por ayudar a que OpenClaw sea más seguro. Este modelo de amenazas es un documento vivo y aceptamos contribuciones de cualquier persona; no es necesario ser un experto en seguridad.

¿Has detectado un vector de ataque o un riesgo que no hemos cubierto? Abre un issue en openclaw/trust y descríbelo con tus propias palabras. No necesitas conocer ningún marco ni rellenar todos los campos; simplemente describe el escenario.

Es útil incluir (pero no obligatorio):

  • El escenario de ataque y cómo podría explotarse
  • Qué partes de OpenClaw se ven afectadas (CLI, puerta de enlace, canales, ClawHub, servidores MCP, etc.)
  • Qué tan grave crees que es (baja / media / alta / crítica)
  • Cualquier enlace a investigaciones relacionadas, CVEs o ejemplos del mundo real

Nos encargaremos de la asignación a ATLAS, los IDs de amenaza y la evaluación de riesgos durante la revisión. Si deseas incluir esos detalles, genial; pero no se espera.

Esto es para añadir al modelo de amenazas, no para reportar vulnerabilidades en vivo. Si has encontrado una vulnerabilidad explotable, consulta nuestra página de confianza para obtener instrucciones sobre divulgación responsable.

¿Tienes una idea sobre cómo abordar una amenaza existente? Abre un issue o una PR que haga referencia a la amenaza. Las mitigaciones útiles son específicas y accionables; por ejemplo, “limitación de velocidad por remitente de 10 mensajes/minuto en la puerta de enlace” es mejor que “implementar limitación de velocidad”.

Las cadenas de ataque muestran cómo se combinan múltiples amenazas en un escenario de ataque realista. Si ves una combinación peligrosa, describe los pasos y cómo un atacante los encadenaría. Una breve narración de cómo se desarrolla el ataque en la práctica es más valiosa que una plantilla formal.

Errores tipográficos, aclaraciones, información desactualizada, mejores ejemplos: las PRs son bienvenidas, no es necesario abrir un issue.

Este modelo de amenazas se basa en MITRE ATLAS (Adversarial Threat Landscape for AI Systems), un marco diseñado específicamente para amenazas de IA/ML como la inyección de indicaciones, el uso indebido de herramientas y la explotación de agentes. No necesitas conocer ATLAS para contribuir - mapeamos las envíos al marco durante la revisión.

Cada amenaza recibe un ID como T-EXEC-003. Las categorías son:

CódigoCategoría
RECONReconocimiento - recopilación de información
ACCESSAcceso inicial - obtener entrada
EXECEjecución - ejecutar acciones maliciosas
PERSISTPersistencia - mantener el acceso
EVADEEvasión de defensas - evitar la detección
DISCDescubrimiento - aprender sobre el entorno
EXFILExfiltración - robar datos
IMPACTImpacto - daño o interrupción

Los ID son asignados por los mantenedores durante la revisión. No necesitas elegir uno.

NivelSignificado
CríticoCompromiso total del sistema, o alta probabilidad + impacto crítico
AltoDaños significativos probables, o probabilidad media + impacto crítico
MedioRiesgo moderado, o baja probabilidad + alto impacto
BajoPoco probable y de impacto limitado

Si no estás seguro del nivel de riesgo, simplemente describe el impacto y nosotros lo evaluaremos.

  1. Triaje - Revisamos los nuevos envíos dentro de las 48 horas
  2. Evaluación - Verificamos la viabilidad, asignamos el mapeo ATLAS y el ID de amenaza, validamos el nivel de riesgo
  3. Documentación - Nos aseguramos de que todo esté formateado y completo
  4. Fusión** - Se agrega al modelo de amenazas y la visualización
  • Vulnerabilidades de seguridad: Consulte nuestra página de Confianza para obtener instrucciones de reporte
  • Preguntas sobre el modelo de amenazas: Abra un issue en openclaw/trust
  • Chat general: Canal #security de Discord

Los colaboradores del modelo de amenazas son reconocidos en los agradecimientos del modelo de amenazas, las notas de la versión y el salón de la fama de seguridad de OpenClaw por contribuciones significativas.