{
  "schemaVersion": "1.0",
  "item": {
    "slug": "rhandus-alerting-system",
    "name": "Alerting & Notification System",
    "source": "tencent",
    "type": "skill",
    "category": "其他",
    "sourceUrl": "https://clawhub.ai/rhanxerox/rhandus-alerting-system",
    "canonicalUrl": "https://clawhub.ai/rhanxerox/rhandus-alerting-system",
    "targetPlatform": "OpenClaw"
  },
  "install": {
    "downloadMode": "redirect",
    "downloadUrl": "/downloads/rhandus-alerting-system",
    "sourceDownloadUrl": "https://wry-manatee-359.convex.site/api/v1/download?slug=rhandus-alerting-system",
    "sourcePlatform": "tencent",
    "targetPlatform": "OpenClaw",
    "installMethod": "Manual import",
    "extraction": "Extract archive",
    "prerequisites": [
      "OpenClaw"
    ],
    "packageFormat": "ZIP package",
    "includedAssets": [
      "SKILL.md",
      "alert_integration.sh",
      "examples/api_monitoring.js",
      "package.json",
      "src/alert_manager.js",
      "src/index.js"
    ],
    "primaryDoc": "SKILL.md",
    "quickSetup": [
      "Download the package from Yavira.",
      "Extract the archive and review SKILL.md first.",
      "Import or place the package into your OpenClaw setup."
    ],
    "agentAssist": {
      "summary": "Hand the extracted package to your coding agent with a concrete install brief instead of figuring it out manually.",
      "steps": [
        "Download the package from Yavira.",
        "Extract it into a folder your agent can access.",
        "Paste one of the prompts below and point your agent at the extracted folder."
      ],
      "prompts": [
        {
          "label": "New install",
          "body": "I downloaded a skill package from Yavira. Read SKILL.md from the extracted folder and install it by following the included instructions. Tell me what you changed and call out any manual steps you could not complete."
        },
        {
          "label": "Upgrade existing",
          "body": "I downloaded an updated skill package from Yavira. Read SKILL.md from the extracted folder, compare it with my current installation, and upgrade it while preserving any custom configuration unless the package docs explicitly say otherwise. Summarize what changed and any follow-up checks I should run."
        }
      ]
    },
    "sourceHealth": {
      "source": "tencent",
      "status": "healthy",
      "reason": "direct_download_ok",
      "recommendedAction": "download",
      "checkedAt": "2026-04-23T16:43:11.935Z",
      "expiresAt": "2026-04-30T16:43:11.935Z",
      "httpStatus": 200,
      "finalUrl": "https://wry-manatee-359.convex.site/api/v1/download?slug=4claw-imageboard",
      "contentType": "application/zip",
      "probeMethod": "head",
      "details": {
        "probeUrl": "https://wry-manatee-359.convex.site/api/v1/download?slug=4claw-imageboard",
        "contentDisposition": "attachment; filename=\"4claw-imageboard-1.0.1.zip\"",
        "redirectLocation": null,
        "bodySnippet": null
      },
      "scope": "source",
      "summary": "Source download looks usable.",
      "detail": "Yavira can redirect you to the upstream package for this source.",
      "primaryActionLabel": "Download for OpenClaw",
      "primaryActionHref": "/downloads/rhandus-alerting-system"
    },
    "validation": {
      "installChecklist": [
        "Use the Yavira download entry.",
        "Review SKILL.md after the package is downloaded.",
        "Confirm the extracted package contains the expected setup assets."
      ],
      "postInstallChecks": [
        "Confirm the extracted package includes the expected docs or setup files.",
        "Validate the skill or prompts are available in your target agent workspace.",
        "Capture any manual follow-up steps the agent could not complete."
      ]
    },
    "downloadPageUrl": "https://openagent3.xyz/downloads/rhandus-alerting-system",
    "agentPageUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent",
    "manifestUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent.json",
    "briefUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent.md"
  },
  "agentAssist": {
    "summary": "Hand the extracted package to your coding agent with a concrete install brief instead of figuring it out manually.",
    "steps": [
      "Download the package from Yavira.",
      "Extract it into a folder your agent can access.",
      "Paste one of the prompts below and point your agent at the extracted folder."
    ],
    "prompts": [
      {
        "label": "New install",
        "body": "I downloaded a skill package from Yavira. Read SKILL.md from the extracted folder and install it by following the included instructions. Tell me what you changed and call out any manual steps you could not complete."
      },
      {
        "label": "Upgrade existing",
        "body": "I downloaded an updated skill package from Yavira. Read SKILL.md from the extracted folder, compare it with my current installation, and upgrade it while preserving any custom configuration unless the package docs explicitly say otherwise. Summarize what changed and any follow-up checks I should run."
      }
    ]
  },
  "documentation": {
    "source": "clawhub",
    "primaryDoc": "SKILL.md",
    "sections": [
      {
        "title": "Alerting & Notification System",
        "body": "Sistema centralizado de alertas y notificaciones para OpenClaw. Alertas multi-canal, reglas inteligentes, escalación y auditoría."
      },
      {
        "title": "🎯 Objetivo",
        "body": "Permitir que OpenClaw sea proactivo en lugar de reactivo, detectando problemas y notificando automáticamente antes de que impacten operaciones."
      },
      {
        "title": "Nivel 1 (Semana 1 - Base):",
        "body": "✅ Multi-canal: Telegram, Email (Gmail), Log\n✅ Reglas básicas: Umbrales, patrones, horarios\n✅ Prioridades: Info, Warning, Critical, Emergency\n✅ Agrupación: Alertas relacionadas agrupadas\n✅ Historial: Auditoría completa de alertas"
      },
      {
        "title": "Nivel 2 (Semana 2 - Avanzado):",
        "body": "🔄 Escalación automática: Si no hay respuesta\n📊 Dashboard web: Visualización en tiempo real\n🤖 Auto-resolución: Alertas que se resuelven solas\n📈 Análisis: Patrones y tendencias de alertas\n🔗 Integraciones: Webhooks, Slack, etc."
      },
      {
        "title": "Nivel 3 (Semana 3 - Inteligente):",
        "body": "🧠 Aprendizaje: Reduce falsos positivos\n⏰ Horarios inteligentes: Respeta horas no laborales\n👥 Routing: Enruta a persona correcta\n📱 Mobile: Notificaciones push\n🔄 Feedback loop: Mejora continua"
      },
      {
        "title": "Comandos Principales:",
        "body": "alert monitor\n\nMonitorea un endpoint o recurso.\n\n# Monitorear API Tiklick\nalert monitor https://api.tiklick.com/health --interval 60 --channel telegram\n\n# Monitorear archivo de log\nalert monitor /var/log/tiklick_app.log --pattern \"ERROR\\|CRITICAL\" --channel email\n\n# Monitorear métrica del sistema\nalert monitor system.cpu --threshold 80 --duration 300 --channel both\n\nalert threshold\n\nConfigura alertas basadas en umbrales.\n\n# Ventas mínimas diarias\nalert threshold /workspace/ventas.csv --column \"total\" --min 1000000 --channel email\n\n# Uso máximo de disco\nalert threshold system.disk --path /workspace --max 90 --channel telegram\n\n# Tiempo respuesta API\nalert threshold api.response_time --url https://api.tiklick.com --max 2000 --channel both\n\nalert pattern\n\nBusca patrones en logs o datos.\n\n# Errores críticos en logs\nalert pattern /var/log/app.log --pattern \"FATAL\\|SEGFAULT\\|OutOfMemory\" --channel telegram\n\n# Intentos fallidos de login\nalert pattern /var/log/auth.log --pattern \"Failed password\" --count 5 --window 300 --channel email\n\n# Patrones de seguridad\nalert pattern security --type \"brute_force\\|sql_injection\\|xss\" --channel both\n\nalert status\n\nMuestra estado de alertas.\n\n# Alertas activas\nalert status --active\n\n# Historial de alertas\nalert status --history --days 7\n\n# Resumen estadístico\nalert status --stats\n\nalert resolve\n\nMarca alertas como resueltas.\n\n# Resolver alerta específica\nalert resolve ALERT-1234\n\n# Resolver todas de un servicio\nalert resolve --service api-tiklick\n\n# Auto-resolver después de verificación\nalert resolve --auto --check \"curl -s https://api.tiklick.com/health\""
      },
      {
        "title": "Canales Disponibles:",
        "body": "telegram - Notificación inmediata a Telegram\nemail - Email a lista configurada\nlog - Registro en archivo de log\ndashboard - Visualización en dashboard web\nall - Todos los canales"
      },
      {
        "title": "Prioridades:",
        "body": "emergency (🔴) - Requiere acción inmediata\ncritical (🟠) - Acción requerida pronto\nwarning (🟡) - Atención recomendada\ninfo (🔵) - Informativo solamente"
      },
      {
        "title": "Variables de Entorno:",
        "body": "ALERTING_TELEGRAM_CHAT_ID=\"${TELEGRAM_CHAT_ID}\"  # Variable de entorno\nALERTING_EMAIL_RECIPIENTS=\"rhandus@gmail.com,admin@tiklick.com\"\nALERTING_SMTP_SERVER=\"smtp.gmail.com\"\nALERTING_DASHBOARD_URL=\"http://localhost:3000/alerts\"\nALERTING_RETENTION_DAYS=\"30\""
      },
      {
        "title": "Con API Testing:",
        "body": "# Si API falla, generar alerta\napi test https://api.tiklick.com/health --on-failure \"alert trigger api.down --priority critical\""
      },
      {
        "title": "Con Security Tools:",
        "body": "# Alertar hallazgos críticos de seguridad\nsecurity scan --on-finding-critical \"alert trigger security.critical --details {finding}\""
      },
      {
        "title": "Con Docker Management:",
        "body": "# Alertar si contenedor cae\ndocker monitor tiklick-app --on-crash \"alert trigger docker.crash --container {name}\""
      },
      {
        "title": "Con Calendar Integration:",
        "body": "# Recordatorios de eventos importantes\ncalendar monitor --before 30 --action \"alert trigger calendar.reminder --event {title}\""
      },
      {
        "title": "Caso 1: Monitoreo API Producción",
        "body": "# Configurar monitoreo 24/7\nalert monitor https://api.tiklick.com/health \\\n  --interval 30 \\\n  --timeout 10 \\\n  --expected-status 200 \\\n  --on-failure \"alert trigger api.production.down --priority emergency\" \\\n  --on-recovery \"alert resolve api.production.down\" \\\n  --channel all"
      },
      {
        "title": "Caso 2: Ventas por Debajo de Umbral",
        "body": "# Verificar ventas cada hora\nalert threshold /workspace/ventas/ultima_hora.csv \\\n  --column \"total_ventas\" \\\n  --min 500000 \\\n  --check-every 3600 \\\n  --on-below \"alert trigger sales.low --priority warning --details 'Ventas bajas: {value}'\" \\\n  --channel telegram,email"
      },
      {
        "title": "Caso 3: Backup Fallido",
        "body": "# Verificar backup diario\nalert monitor /workspace/backups/latest.tar.gz \\\n  --max-age 86400 \\\n  --min-size 1000000 \\\n  --on-failure \"alert trigger backup.failed --priority critical\" \\\n  --channel email"
      },
      {
        "title": "Caso 4: Horario No Laboral (Silenciar)",
        "body": "# Solo alertas críticas fuera de horario\nalert rule working-hours \\\n  --days mon-fri \\\n  --time 08:00-18:00 \\\n  --action \"allow-all\" \\\n  --else \"allow-only critical,emergency\""
      },
      {
        "title": "🔧 Arquitectura",
        "body": "┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐\n│   Detección     │───▶│   Procesamiento │───▶│   Notificación  │\n│  (Monitores)    │    │    (Reglas)     │    │   (Canales)     │\n└─────────────────┘    └─────────────────┘    └─────────────────┘\n         │                       │                       │\n         ▼                       ▼                       ▼\n┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐\n│  APIs Tiklick   │    │  Agrupación     │    │  Telegram       │\n│  Sistema        │    │  Escalación     │    │  Email          │\n│  Logs           │    │  Deduplicación  │    │  Dashboard      │\n│  Métricas       │    │  Priorización   │    │  Log            │\n└─────────────────┘    └─────────────────┘    └─────────────────┘"
      },
      {
        "title": "Métricas a Seguir:",
        "body": "Tiempo medio de detección: < 60 segundos\nTiempo medio de resolución: < 15 minutos\nFalsos positivos: < 5%\nCobertura: > 95% de sistemas críticos\nSatisfacción: > 4.5/5 en encuestas"
      },
      {
        "title": "Dashboard de Alertas:",
        "body": "Alertas activas por prioridad\nTendencia histórica\nTop servicios con problemas\nTiempos de respuesta\nEstadísticas de resolución"
      },
      {
        "title": "🛡️ Seguridad",
        "body": "Autenticación: Verificación de origen de alertas\nAutorización: Quién puede configurar/ver alertas\nAuditoría: Log completo de todas las acciones\nRate limiting: Prevenir spam de alertas\nCifrado: Datos sensibles cifrados"
      },
      {
        "title": "Diario:",
        "body": "Revisar alertas activas\nVerificar canales de notificación\nLimpiar alertas resueltas antiguas"
      },
      {
        "title": "Semanal:",
        "body": "Revisar reglas y ajustar umbrales\nAnalizar falsos positivos\nActualizar contactos de escalación"
      },
      {
        "title": "Mensual:",
        "body": "Auditoría completa del sistema\nRevisión de métricas y KPIs\nPlan de mejora continua"
      },
      {
        "title": "Semana 1: Base (Actual)",
        "body": "Estructura del skill\nCanal Telegram\nReglas básicas\nTesting inicial"
      },
      {
        "title": "Semana 2: Avanzado",
        "body": "Canal Email\nDashboard web\nReglas avanzadas\nIntegración skills"
      },
      {
        "title": "Semana 3: Inteligente",
        "body": "Escalación automática\nAprendizaje automático\nMobile notifications\nOptimización\n\nEstado: 🟡 EN DESARROLLO (Semana 1)\nPróximo hito: Canal Telegram funcional\nResponsable: TK Claw\nFecha objetivo: 2026-02-26"
      }
    ],
    "body": "Alerting & Notification System\n\nSistema centralizado de alertas y notificaciones para OpenClaw. Alertas multi-canal, reglas inteligentes, escalación y auditoría.\n\n🎯 Objetivo\n\nPermitir que OpenClaw sea proactivo en lugar de reactivo, detectando problemas y notificando automáticamente antes de que impacten operaciones.\n\n📋 Características\nNivel 1 (Semana 1 - Base):\n✅ Multi-canal: Telegram, Email (Gmail), Log\n✅ Reglas básicas: Umbrales, patrones, horarios\n✅ Prioridades: Info, Warning, Critical, Emergency\n✅ Agrupación: Alertas relacionadas agrupadas\n✅ Historial: Auditoría completa de alertas\nNivel 2 (Semana 2 - Avanzado):\n🔄 Escalación automática: Si no hay respuesta\n📊 Dashboard web: Visualización en tiempo real\n🤖 Auto-resolución: Alertas que se resuelven solas\n📈 Análisis: Patrones y tendencias de alertas\n🔗 Integraciones: Webhooks, Slack, etc.\nNivel 3 (Semana 3 - Inteligente):\n🧠 Aprendizaje: Reduce falsos positivos\n⏰ Horarios inteligentes: Respeta horas no laborales\n👥 Routing: Enruta a persona correcta\n📱 Mobile: Notificaciones push\n🔄 Feedback loop: Mejora continua\n🚀 Uso\nComandos Principales:\nalert monitor\n\nMonitorea un endpoint o recurso.\n\n# Monitorear API Tiklick\nalert monitor https://api.tiklick.com/health --interval 60 --channel telegram\n\n# Monitorear archivo de log\nalert monitor /var/log/tiklick_app.log --pattern \"ERROR\\|CRITICAL\" --channel email\n\n# Monitorear métrica del sistema\nalert monitor system.cpu --threshold 80 --duration 300 --channel both\n\nalert threshold\n\nConfigura alertas basadas en umbrales.\n\n# Ventas mínimas diarias\nalert threshold /workspace/ventas.csv --column \"total\" --min 1000000 --channel email\n\n# Uso máximo de disco\nalert threshold system.disk --path /workspace --max 90 --channel telegram\n\n# Tiempo respuesta API\nalert threshold api.response_time --url https://api.tiklick.com --max 2000 --channel both\n\nalert pattern\n\nBusca patrones en logs o datos.\n\n# Errores críticos en logs\nalert pattern /var/log/app.log --pattern \"FATAL\\|SEGFAULT\\|OutOfMemory\" --channel telegram\n\n# Intentos fallidos de login\nalert pattern /var/log/auth.log --pattern \"Failed password\" --count 5 --window 300 --channel email\n\n# Patrones de seguridad\nalert pattern security --type \"brute_force\\|sql_injection\\|xss\" --channel both\n\nalert status\n\nMuestra estado de alertas.\n\n# Alertas activas\nalert status --active\n\n# Historial de alertas\nalert status --history --days 7\n\n# Resumen estadístico\nalert status --stats\n\nalert resolve\n\nMarca alertas como resueltas.\n\n# Resolver alerta específica\nalert resolve ALERT-1234\n\n# Resolver todas de un servicio\nalert resolve --service api-tiklick\n\n# Auto-resolver después de verificación\nalert resolve --auto --check \"curl -s https://api.tiklick.com/health\"\n\n⚙️ Configuración\nCanales Disponibles:\ntelegram - Notificación inmediata a Telegram\nemail - Email a lista configurada\nlog - Registro en archivo de log\ndashboard - Visualización en dashboard web\nall - Todos los canales\nPrioridades:\nemergency (🔴) - Requiere acción inmediata\ncritical (🟠) - Acción requerida pronto\nwarning (🟡) - Atención recomendada\ninfo (🔵) - Informativo solamente\nVariables de Entorno:\nALERTING_TELEGRAM_CHAT_ID=\"${TELEGRAM_CHAT_ID}\"  # Variable de entorno\nALERTING_EMAIL_RECIPIENTS=\"rhandus@gmail.com,admin@tiklick.com\"\nALERTING_SMTP_SERVER=\"smtp.gmail.com\"\nALERTING_DASHBOARD_URL=\"http://localhost:3000/alerts\"\nALERTING_RETENTION_DAYS=\"30\"\n\n📊 Integración con Skills Existentes\nCon API Testing:\n# Si API falla, generar alerta\napi test https://api.tiklick.com/health --on-failure \"alert trigger api.down --priority critical\"\n\nCon Security Tools:\n# Alertar hallazgos críticos de seguridad\nsecurity scan --on-finding-critical \"alert trigger security.critical --details {finding}\"\n\nCon Docker Management:\n# Alertar si contenedor cae\ndocker monitor tiklick-app --on-crash \"alert trigger docker.crash --container {name}\"\n\nCon Calendar Integration:\n# Recordatorios de eventos importantes\ncalendar monitor --before 30 --action \"alert trigger calendar.reminder --event {title}\"\n\n🎯 Ejemplos para Tiklick\nCaso 1: Monitoreo API Producción\n# Configurar monitoreo 24/7\nalert monitor https://api.tiklick.com/health \\\n  --interval 30 \\\n  --timeout 10 \\\n  --expected-status 200 \\\n  --on-failure \"alert trigger api.production.down --priority emergency\" \\\n  --on-recovery \"alert resolve api.production.down\" \\\n  --channel all\n\nCaso 2: Ventas por Debajo de Umbral\n# Verificar ventas cada hora\nalert threshold /workspace/ventas/ultima_hora.csv \\\n  --column \"total_ventas\" \\\n  --min 500000 \\\n  --check-every 3600 \\\n  --on-below \"alert trigger sales.low --priority warning --details 'Ventas bajas: {value}'\" \\\n  --channel telegram,email\n\nCaso 3: Backup Fallido\n# Verificar backup diario\nalert monitor /workspace/backups/latest.tar.gz \\\n  --max-age 86400 \\\n  --min-size 1000000 \\\n  --on-failure \"alert trigger backup.failed --priority critical\" \\\n  --channel email\n\nCaso 4: Horario No Laboral (Silenciar)\n# Solo alertas críticas fuera de horario\nalert rule working-hours \\\n  --days mon-fri \\\n  --time 08:00-18:00 \\\n  --action \"allow-all\" \\\n  --else \"allow-only critical,emergency\"\n\n🔧 Arquitectura\n┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐\n│   Detección     │───▶│   Procesamiento │───▶│   Notificación  │\n│  (Monitores)    │    │    (Reglas)     │    │   (Canales)     │\n└─────────────────┘    └─────────────────┘    └─────────────────┘\n         │                       │                       │\n         ▼                       ▼                       ▼\n┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐\n│  APIs Tiklick   │    │  Agrupación     │    │  Telegram       │\n│  Sistema        │    │  Escalación     │    │  Email          │\n│  Logs           │    │  Deduplicación  │    │  Dashboard      │\n│  Métricas       │    │  Priorización   │    │  Log            │\n└─────────────────┘    └─────────────────┘    └─────────────────┘\n\n📈 Métricas y Monitoreo\nMétricas a Seguir:\nTiempo medio de detección: < 60 segundos\nTiempo medio de resolución: < 15 minutos\nFalsos positivos: < 5%\nCobertura: > 95% de sistemas críticos\nSatisfacción: > 4.5/5 en encuestas\nDashboard de Alertas:\nAlertas activas por prioridad\nTendencia histórica\nTop servicios con problemas\nTiempos de respuesta\nEstadísticas de resolución\n🛡️ Seguridad\nAutenticación: Verificación de origen de alertas\nAutorización: Quién puede configurar/ver alertas\nAuditoría: Log completo de todas las acciones\nRate limiting: Prevenir spam de alertas\nCifrado: Datos sensibles cifrados\n🔄 Mantenimiento\nDiario:\nRevisar alertas activas\nVerificar canales de notificación\nLimpiar alertas resueltas antiguas\nSemanal:\nRevisar reglas y ajustar umbrales\nAnalizar falsos positivos\nActualizar contactos de escalación\nMensual:\nAuditoría completa del sistema\nRevisión de métricas y KPIs\nPlan de mejora continua\n🚨 Plan de Implementación\nSemana 1: Base (Actual)\nEstructura del skill\nCanal Telegram\nReglas básicas\nTesting inicial\nSemana 2: Avanzado\nCanal Email\nDashboard web\nReglas avanzadas\nIntegración skills\nSemana 3: Inteligente\nEscalación automática\nAprendizaje automático\nMobile notifications\nOptimización\n\nEstado: 🟡 EN DESARROLLO (Semana 1)\nPróximo hito: Canal Telegram funcional\nResponsable: TK Claw\nFecha objetivo: 2026-02-26"
  },
  "trust": {
    "sourceLabel": "tencent",
    "provenanceUrl": "https://clawhub.ai/rhanxerox/rhandus-alerting-system",
    "publisherUrl": "https://clawhub.ai/rhanxerox/rhandus-alerting-system",
    "owner": "rhanxerox",
    "version": "1.0.0",
    "license": null,
    "verificationStatus": "Indexed source record"
  },
  "links": {
    "detailUrl": "https://openagent3.xyz/skills/rhandus-alerting-system",
    "downloadUrl": "https://openagent3.xyz/downloads/rhandus-alerting-system",
    "agentUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent",
    "manifestUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent.json",
    "briefUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent.md"
  }
}