# Send Alerting & Notification System to your agent
Hand the extracted package to your coding agent with a concrete install brief instead of figuring it out manually.
## Fast path
- Download the package from Yavira.
- Extract it into a folder your agent can access.
- Paste one of the prompts below and point your agent at the extracted folder.
## Suggested prompts
### New install

```text
I downloaded a skill package from Yavira. Read SKILL.md from the extracted folder and install it by following the included instructions. Tell me what you changed and call out any manual steps you could not complete.
```
### Upgrade existing

```text
I downloaded an updated skill package from Yavira. Read SKILL.md from the extracted folder, compare it with my current installation, and upgrade it while preserving any custom configuration unless the package docs explicitly say otherwise. Summarize what changed and any follow-up checks I should run.
```
## Machine-readable fields
```json
{
  "schemaVersion": "1.0",
  "item": {
    "slug": "rhandus-alerting-system",
    "name": "Alerting & Notification System",
    "source": "tencent",
    "type": "skill",
    "category": "其他",
    "sourceUrl": "https://clawhub.ai/rhanxerox/rhandus-alerting-system",
    "canonicalUrl": "https://clawhub.ai/rhanxerox/rhandus-alerting-system",
    "targetPlatform": "OpenClaw"
  },
  "install": {
    "downloadUrl": "/downloads/rhandus-alerting-system",
    "sourceDownloadUrl": "https://wry-manatee-359.convex.site/api/v1/download?slug=rhandus-alerting-system",
    "sourcePlatform": "tencent",
    "targetPlatform": "OpenClaw",
    "packageFormat": "ZIP package",
    "primaryDoc": "SKILL.md",
    "includedAssets": [
      "SKILL.md",
      "alert_integration.sh",
      "examples/api_monitoring.js",
      "package.json",
      "src/alert_manager.js",
      "src/index.js"
    ],
    "downloadMode": "redirect",
    "sourceHealth": {
      "source": "tencent",
      "slug": "rhandus-alerting-system",
      "status": "healthy",
      "reason": "direct_download_ok",
      "recommendedAction": "download",
      "checkedAt": "2026-04-29T03:16:29.667Z",
      "expiresAt": "2026-05-06T03:16:29.667Z",
      "httpStatus": 200,
      "finalUrl": "https://wry-manatee-359.convex.site/api/v1/download?slug=rhandus-alerting-system",
      "contentType": "application/zip",
      "probeMethod": "head",
      "details": {
        "probeUrl": "https://wry-manatee-359.convex.site/api/v1/download?slug=rhandus-alerting-system",
        "contentDisposition": "attachment; filename=\"rhandus-alerting-system-1.0.0.zip\"",
        "redirectLocation": null,
        "bodySnippet": null,
        "slug": "rhandus-alerting-system"
      },
      "scope": "item",
      "summary": "Item download looks usable.",
      "detail": "Yavira can redirect you to the upstream package for this item.",
      "primaryActionLabel": "Download for OpenClaw",
      "primaryActionHref": "/downloads/rhandus-alerting-system"
    },
    "validation": {
      "installChecklist": [
        "Use the Yavira download entry.",
        "Review SKILL.md after the package is downloaded.",
        "Confirm the extracted package contains the expected setup assets."
      ],
      "postInstallChecks": [
        "Confirm the extracted package includes the expected docs or setup files.",
        "Validate the skill or prompts are available in your target agent workspace.",
        "Capture any manual follow-up steps the agent could not complete."
      ]
    }
  },
  "links": {
    "detailUrl": "https://openagent3.xyz/skills/rhandus-alerting-system",
    "downloadUrl": "https://openagent3.xyz/downloads/rhandus-alerting-system",
    "agentUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent",
    "manifestUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent.json",
    "briefUrl": "https://openagent3.xyz/skills/rhandus-alerting-system/agent.md"
  }
}
```
## Documentation

### Alerting & Notification System

Sistema centralizado de alertas y notificaciones para OpenClaw. Alertas multi-canal, reglas inteligentes, escalación y auditoría.

### 🎯 Objetivo

Permitir que OpenClaw sea proactivo en lugar de reactivo, detectando problemas y notificando automáticamente antes de que impacten operaciones.

### Nivel 1 (Semana 1 - Base):

✅ Multi-canal: Telegram, Email (Gmail), Log
✅ Reglas básicas: Umbrales, patrones, horarios
✅ Prioridades: Info, Warning, Critical, Emergency
✅ Agrupación: Alertas relacionadas agrupadas
✅ Historial: Auditoría completa de alertas

### Nivel 2 (Semana 2 - Avanzado):

🔄 Escalación automática: Si no hay respuesta
📊 Dashboard web: Visualización en tiempo real
🤖 Auto-resolución: Alertas que se resuelven solas
📈 Análisis: Patrones y tendencias de alertas
🔗 Integraciones: Webhooks, Slack, etc.

### Nivel 3 (Semana 3 - Inteligente):

🧠 Aprendizaje: Reduce falsos positivos
⏰ Horarios inteligentes: Respeta horas no laborales
👥 Routing: Enruta a persona correcta
📱 Mobile: Notificaciones push
🔄 Feedback loop: Mejora continua

### Comandos Principales:

alert monitor

Monitorea un endpoint o recurso.

# Monitorear API Tiklick
alert monitor https://api.tiklick.com/health --interval 60 --channel telegram

# Monitorear archivo de log
alert monitor /var/log/tiklick_app.log --pattern "ERROR\\|CRITICAL" --channel email

# Monitorear métrica del sistema
alert monitor system.cpu --threshold 80 --duration 300 --channel both

alert threshold

Configura alertas basadas en umbrales.

# Ventas mínimas diarias
alert threshold /workspace/ventas.csv --column "total" --min 1000000 --channel email

# Uso máximo de disco
alert threshold system.disk --path /workspace --max 90 --channel telegram

# Tiempo respuesta API
alert threshold api.response_time --url https://api.tiklick.com --max 2000 --channel both

alert pattern

Busca patrones en logs o datos.

# Errores críticos en logs
alert pattern /var/log/app.log --pattern "FATAL\\|SEGFAULT\\|OutOfMemory" --channel telegram

# Intentos fallidos de login
alert pattern /var/log/auth.log --pattern "Failed password" --count 5 --window 300 --channel email

# Patrones de seguridad
alert pattern security --type "brute_force\\|sql_injection\\|xss" --channel both

alert status

Muestra estado de alertas.

# Alertas activas
alert status --active

# Historial de alertas
alert status --history --days 7

# Resumen estadístico
alert status --stats

alert resolve

Marca alertas como resueltas.

# Resolver alerta específica
alert resolve ALERT-1234

# Resolver todas de un servicio
alert resolve --service api-tiklick

# Auto-resolver después de verificación
alert resolve --auto --check "curl -s https://api.tiklick.com/health"

### Canales Disponibles:

telegram - Notificación inmediata a Telegram
email - Email a lista configurada
log - Registro en archivo de log
dashboard - Visualización en dashboard web
all - Todos los canales

### Prioridades:

emergency (🔴) - Requiere acción inmediata
critical (🟠) - Acción requerida pronto
warning (🟡) - Atención recomendada
info (🔵) - Informativo solamente

### Variables de Entorno:

ALERTING_TELEGRAM_CHAT_ID="${TELEGRAM_CHAT_ID}"  # Variable de entorno
ALERTING_EMAIL_RECIPIENTS="rhandus@gmail.com,admin@tiklick.com"
ALERTING_SMTP_SERVER="smtp.gmail.com"
ALERTING_DASHBOARD_URL="http://localhost:3000/alerts"
ALERTING_RETENTION_DAYS="30"

### Con API Testing:

# Si API falla, generar alerta
api test https://api.tiklick.com/health --on-failure "alert trigger api.down --priority critical"

### Con Security Tools:

# Alertar hallazgos críticos de seguridad
security scan --on-finding-critical "alert trigger security.critical --details {finding}"

### Con Docker Management:

# Alertar si contenedor cae
docker monitor tiklick-app --on-crash "alert trigger docker.crash --container {name}"

### Con Calendar Integration:

# Recordatorios de eventos importantes
calendar monitor --before 30 --action "alert trigger calendar.reminder --event {title}"

### Caso 1: Monitoreo API Producción

# Configurar monitoreo 24/7
alert monitor https://api.tiklick.com/health \\
  --interval 30 \\
  --timeout 10 \\
  --expected-status 200 \\
  --on-failure "alert trigger api.production.down --priority emergency" \\
  --on-recovery "alert resolve api.production.down" \\
  --channel all

### Caso 2: Ventas por Debajo de Umbral

# Verificar ventas cada hora
alert threshold /workspace/ventas/ultima_hora.csv \\
  --column "total_ventas" \\
  --min 500000 \\
  --check-every 3600 \\
  --on-below "alert trigger sales.low --priority warning --details 'Ventas bajas: {value}'" \\
  --channel telegram,email

### Caso 3: Backup Fallido

# Verificar backup diario
alert monitor /workspace/backups/latest.tar.gz \\
  --max-age 86400 \\
  --min-size 1000000 \\
  --on-failure "alert trigger backup.failed --priority critical" \\
  --channel email

### Caso 4: Horario No Laboral (Silenciar)

# Solo alertas críticas fuera de horario
alert rule working-hours \\
  --days mon-fri \\
  --time 08:00-18:00 \\
  --action "allow-all" \\
  --else "allow-only critical,emergency"

### 🔧 Arquitectura

┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐
│   Detección     │───▶│   Procesamiento │───▶│   Notificación  │
│  (Monitores)    │    │    (Reglas)     │    │   (Canales)     │
└─────────────────┘    └─────────────────┘    └─────────────────┘
         │                       │                       │
         ▼                       ▼                       ▼
┌─────────────────┐    ┌─────────────────┐    ┌─────────────────┐
│  APIs Tiklick   │    │  Agrupación     │    │  Telegram       │
│  Sistema        │    │  Escalación     │    │  Email          │
│  Logs           │    │  Deduplicación  │    │  Dashboard      │
│  Métricas       │    │  Priorización   │    │  Log            │
└─────────────────┘    └─────────────────┘    └─────────────────┘

### Métricas a Seguir:

Tiempo medio de detección: < 60 segundos
Tiempo medio de resolución: < 15 minutos
Falsos positivos: < 5%
Cobertura: > 95% de sistemas críticos
Satisfacción: > 4.5/5 en encuestas

### Dashboard de Alertas:

Alertas activas por prioridad
Tendencia histórica
Top servicios con problemas
Tiempos de respuesta
Estadísticas de resolución

### 🛡️ Seguridad

Autenticación: Verificación de origen de alertas
Autorización: Quién puede configurar/ver alertas
Auditoría: Log completo de todas las acciones
Rate limiting: Prevenir spam de alertas
Cifrado: Datos sensibles cifrados

### Diario:

Revisar alertas activas
Verificar canales de notificación
Limpiar alertas resueltas antiguas

### Semanal:

Revisar reglas y ajustar umbrales
Analizar falsos positivos
Actualizar contactos de escalación

### Mensual:

Auditoría completa del sistema
Revisión de métricas y KPIs
Plan de mejora continua

### Semana 1: Base (Actual)

Estructura del skill
Canal Telegram
Reglas básicas
Testing inicial

### Semana 2: Avanzado

Canal Email
Dashboard web
Reglas avanzadas
Integración skills

### Semana 3: Inteligente

Escalación automática
Aprendizaje automático
Mobile notifications
Optimización

Estado: 🟡 EN DESARROLLO (Semana 1)
Próximo hito: Canal Telegram funcional
Responsable: TK Claw
Fecha objetivo: 2026-02-26
## Trust
- Source: tencent
- Verification: Indexed source record
- Publisher: rhanxerox
- Version: 1.0.0
## Source health
- Status: healthy
- Item download looks usable.
- Yavira can redirect you to the upstream package for this item.
- Health scope: item
- Reason: direct_download_ok
- Checked at: 2026-04-29T03:16:29.667Z
- Expires at: 2026-05-06T03:16:29.667Z
- Recommended action: Download for OpenClaw
## Links
- [Detail page](https://openagent3.xyz/skills/rhandus-alerting-system)
- [Send to Agent page](https://openagent3.xyz/skills/rhandus-alerting-system/agent)
- [JSON manifest](https://openagent3.xyz/skills/rhandus-alerting-system/agent.json)
- [Markdown brief](https://openagent3.xyz/skills/rhandus-alerting-system/agent.md)
- [Download page](https://openagent3.xyz/downloads/rhandus-alerting-system)