← All skills
Tencent SkillHub · Other

Alerting & Notification System

Centralized alerting and notification system for OpenClaw. Multi-channel alerts, intelligent rules, escalation, and audit.

skill openclawclawhub Free
0 Downloads
0 Stars
0 Installs
0 Score
High Signal

Centralized alerting and notification system for OpenClaw. Multi-channel alerts, intelligent rules, escalation, and audit.

⬇ 0 downloads ★ 0 stars Unverified but indexed

Install for OpenClaw

Quick setup
  1. Download the package from Yavira.
  2. Extract the archive and review SKILL.md first.
  3. Import or place the package into your OpenClaw setup.

Requirements

Target platform
OpenClaw
Install method
Manual import
Extraction
Extract archive
Prerequisites
OpenClaw
Primary doc
SKILL.md

Package facts

Download mode
Yavira redirect
Package format
ZIP package
Source platform
Tencent SkillHub
What's included
SKILL.md, alert_integration.sh, examples/api_monitoring.js, package.json, src/alert_manager.js, src/index.js

Validation

  • Use the Yavira download entry.
  • Review SKILL.md after the package is downloaded.
  • Confirm the extracted package contains the expected setup assets.

Install with your agent

Agent handoff

Hand the extracted package to your coding agent with a concrete install brief instead of figuring it out manually.

  1. Download the package from Yavira.
  2. Extract it into a folder your agent can access.
  3. Paste one of the prompts below and point your agent at the extracted folder.
New install

I downloaded a skill package from Yavira. Read SKILL.md from the extracted folder and install it by following the included instructions. Tell me what you changed and call out any manual steps you could not complete.

Upgrade existing

I downloaded an updated skill package from Yavira. Read SKILL.md from the extracted folder, compare it with my current installation, and upgrade it while preserving any custom configuration unless the package docs explicitly say otherwise. Summarize what changed and any follow-up checks I should run.

Trust & source

Release facts

Source
Tencent SkillHub
Verification
Indexed source record
Version
1.0.0

Documentation

ClawHub primary doc Primary doc: SKILL.md 27 sections Open source page

Alerting & Notification System

Sistema centralizado de alertas y notificaciones para OpenClaw. Alertas multi-canal, reglas inteligentes, escalación y auditoría.

🎯 Objetivo

Permitir que OpenClaw sea proactivo en lugar de reactivo, detectando problemas y notificando automáticamente antes de que impacten operaciones.

Nivel 1 (Semana 1 - Base):

✅ Multi-canal: Telegram, Email (Gmail), Log ✅ Reglas básicas: Umbrales, patrones, horarios ✅ Prioridades: Info, Warning, Critical, Emergency ✅ Agrupación: Alertas relacionadas agrupadas ✅ Historial: Auditoría completa de alertas

Nivel 2 (Semana 2 - Avanzado):

🔄 Escalación automática: Si no hay respuesta 📊 Dashboard web: Visualización en tiempo real 🤖 Auto-resolución: Alertas que se resuelven solas 📈 Análisis: Patrones y tendencias de alertas 🔗 Integraciones: Webhooks, Slack, etc.

Nivel 3 (Semana 3 - Inteligente):

🧠 Aprendizaje: Reduce falsos positivos ⏰ Horarios inteligentes: Respeta horas no laborales 👥 Routing: Enruta a persona correcta 📱 Mobile: Notificaciones push 🔄 Feedback loop: Mejora continua

Comandos Principales:

alert monitor Monitorea un endpoint o recurso. # Monitorear API Tiklick alert monitor https://api.tiklick.com/health --interval 60 --channel telegram # Monitorear archivo de log alert monitor /var/log/tiklick_app.log --pattern "ERROR\|CRITICAL" --channel email # Monitorear métrica del sistema alert monitor system.cpu --threshold 80 --duration 300 --channel both alert threshold Configura alertas basadas en umbrales. # Ventas mínimas diarias alert threshold /workspace/ventas.csv --column "total" --min 1000000 --channel email # Uso máximo de disco alert threshold system.disk --path /workspace --max 90 --channel telegram # Tiempo respuesta API alert threshold api.response_time --url https://api.tiklick.com --max 2000 --channel both alert pattern Busca patrones en logs o datos. # Errores críticos en logs alert pattern /var/log/app.log --pattern "FATAL\|SEGFAULT\|OutOfMemory" --channel telegram # Intentos fallidos de login alert pattern /var/log/auth.log --pattern "Failed password" --count 5 --window 300 --channel email # Patrones de seguridad alert pattern security --type "brute_force\|sql_injection\|xss" --channel both alert status Muestra estado de alertas. # Alertas activas alert status --active # Historial de alertas alert status --history --days 7 # Resumen estadístico alert status --stats alert resolve Marca alertas como resueltas. # Resolver alerta específica alert resolve ALERT-1234 # Resolver todas de un servicio alert resolve --service api-tiklick # Auto-resolver después de verificación alert resolve --auto --check "curl -s https://api.tiklick.com/health"

Canales Disponibles:

telegram - Notificación inmediata a Telegram email - Email a lista configurada log - Registro en archivo de log dashboard - Visualización en dashboard web all - Todos los canales

Prioridades:

emergency (🔴) - Requiere acción inmediata critical (🟠) - Acción requerida pronto warning (🟡) - Atención recomendada info (🔵) - Informativo solamente

Variables de Entorno:

ALERTING_TELEGRAM_CHAT_ID="${TELEGRAM_CHAT_ID}" # Variable de entorno ALERTING_EMAIL_RECIPIENTS="rhandus@gmail.com,admin@tiklick.com" ALERTING_SMTP_SERVER="smtp.gmail.com" ALERTING_DASHBOARD_URL="http://localhost:3000/alerts" ALERTING_RETENTION_DAYS="30"

Con API Testing:

# Si API falla, generar alerta api test https://api.tiklick.com/health --on-failure "alert trigger api.down --priority critical"

Con Security Tools:

# Alertar hallazgos críticos de seguridad security scan --on-finding-critical "alert trigger security.critical --details {finding}"

Con Docker Management:

# Alertar si contenedor cae docker monitor tiklick-app --on-crash "alert trigger docker.crash --container {name}"

Con Calendar Integration:

# Recordatorios de eventos importantes calendar monitor --before 30 --action "alert trigger calendar.reminder --event {title}"

Caso 1: Monitoreo API Producción

# Configurar monitoreo 24/7 alert monitor https://api.tiklick.com/health \ --interval 30 \ --timeout 10 \ --expected-status 200 \ --on-failure "alert trigger api.production.down --priority emergency" \ --on-recovery "alert resolve api.production.down" \ --channel all

Caso 2: Ventas por Debajo de Umbral

# Verificar ventas cada hora alert threshold /workspace/ventas/ultima_hora.csv \ --column "total_ventas" \ --min 500000 \ --check-every 3600 \ --on-below "alert trigger sales.low --priority warning --details 'Ventas bajas: {value}'" \ --channel telegram,email

Caso 3: Backup Fallido

# Verificar backup diario alert monitor /workspace/backups/latest.tar.gz \ --max-age 86400 \ --min-size 1000000 \ --on-failure "alert trigger backup.failed --priority critical" \ --channel email

Caso 4: Horario No Laboral (Silenciar)

# Solo alertas críticas fuera de horario alert rule working-hours \ --days mon-fri \ --time 08:00-18:00 \ --action "allow-all" \ --else "allow-only critical,emergency"

🔧 Arquitectura

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Detección │───▶│ Procesamiento │───▶│ Notificación │ │ (Monitores) │ │ (Reglas) │ │ (Canales) │ └─────────────────┘ └─────────────────┘ └─────────────────┘ │ │ │ ▼ ▼ ▼ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ APIs Tiklick │ │ Agrupación │ │ Telegram │ │ Sistema │ │ Escalación │ │ Email │ │ Logs │ │ Deduplicación │ │ Dashboard │ │ Métricas │ │ Priorización │ │ Log │ └─────────────────┘ └─────────────────┘ └─────────────────┘

Métricas a Seguir:

Tiempo medio de detección: < 60 segundos Tiempo medio de resolución: < 15 minutos Falsos positivos: < 5% Cobertura: > 95% de sistemas críticos Satisfacción: > 4.5/5 en encuestas

Dashboard de Alertas:

Alertas activas por prioridad Tendencia histórica Top servicios con problemas Tiempos de respuesta Estadísticas de resolución

🛡️ Seguridad

Autenticación: Verificación de origen de alertas Autorización: Quién puede configurar/ver alertas Auditoría: Log completo de todas las acciones Rate limiting: Prevenir spam de alertas Cifrado: Datos sensibles cifrados

Diario:

Revisar alertas activas Verificar canales de notificación Limpiar alertas resueltas antiguas

Semanal:

Revisar reglas y ajustar umbrales Analizar falsos positivos Actualizar contactos de escalación

Mensual:

Auditoría completa del sistema Revisión de métricas y KPIs Plan de mejora continua

Semana 1: Base (Actual)

Estructura del skill Canal Telegram Reglas básicas Testing inicial

Semana 2: Avanzado

Canal Email Dashboard web Reglas avanzadas Integración skills

Semana 3: Inteligente

Escalación automática Aprendizaje automático Mobile notifications Optimización Estado: 🟡 EN DESARROLLO (Semana 1) Próximo hito: Canal Telegram funcional Responsable: TK Claw Fecha objetivo: 2026-02-26

Category context

Long-tail utilities that do not fit the current primary taxonomy cleanly.

Source: Tencent SkillHub

Largest current source with strong distribution and engagement signals.

Package contents

Included in package
4 Scripts1 Docs1 Config
  • SKILL.md Primary doc
  • alert_integration.sh Scripts
  • examples/api_monitoring.js Scripts
  • src/alert_manager.js Scripts
  • src/index.js Scripts
  • package.json Config