Skip to content

Skills

Los skills son workflows especializados que Claude carga automáticamente por contexto o que puedes invocar de forma explícita. Cada skill encapsula un proceso completo (debugging, commits, PRs, diseño UI) con sus propias fases, validaciones y outputs.

Antes de empezar: lee Workflow AI-first para entender cómo los skills se integran en el pipeline de desarrollo.

Activación

Claude detecta el contexto y carga el skill apropiado. También puedes forzarlo: "Usando frontend-design: crea landing page".


Todos los skills

Core

SkillQué haceCuándo se activa
brainstormingDiálogo estructurado para diseñar soluciones antes de implementarUsuario describe qué construir, añadir o cambiar
scenario-driven-developmentCiclo SCENARIO→SATISFY→REFACTOR con convergence gatesToda implementación — se activa siempre
systematic-debuggingDebugging metódico con 4 fasesBug, test failure, comportamiento inesperado
verification-before-completionGate de evidencia: 6 pasos antes de declarar "hecho"Antes de cualquier claim de completitud
pull-requestPR con quality gate integradoListo para crear pull request
frontend-designDiseño UI distintivoConstruir o estilizar UI (web, mobile, posters)
humanizerElimina patrones de texto AIEscribir o editar prosa (docs, UI copy, mensajes)
skill-creatorCrear skills nuevasCreando o actualizando un skill
context-engineeringDiseño y optimización de system prompts, CLAUDE.md, y agent architecturesSystem prompts, context windows, coherencia de agentes

Git & Workflow

SkillQué haceCuándo se activa
commitCommits semánticos con agrupación automática por tipoListo para commitear
changelogActualiza CHANGELOG desde diff realDocumentar cambios
branch-cleanupLimpieza post-mergeDespués de mergear PR
worktree-createWorktree aislado en sibling dirNecesitas workstream paralelo
worktree-cleanupEliminar worktrees con validaciónTerminar con worktrees
project-initGenera rules de proyecto (stack, architecture, conventions)Proyecto nuevo o stack cambiado
deep-researchInvestigación multi-fuente con verificación y confidence ratingsInvestigación compleja

Ralph Orchestrator + SOP Skills (desarrollo autónomo)

SkillQué haceCuándo se activa
ralph-orchestratorOrquesta pipeline completo con Agent Teams — ver página dedicadaEntry point — invoca este
sop-discoveryExplora constraints y riesgosFase 1: exploración
sop-reverseReferent discovery (pre-build) + reverse engineering (sistemas existentes)Fase 1: exploración
sop-planningDiseña solución detalladaFase 2: diseño
sop-task-generatorGenera .code-task.md filesFase 3: planificación
sop-code-assistImplementa con SDDFase 4: ejecución
sop-reviewerValida SDD compliance, reward hacking, satisfacción de scenariosPost-ejecución: review

agent-browser herramienta externa

CLI de browser automation. No es un skill del framework — es una herramienta externa que los skills usan internamente. Reemplaza WebFetch/WebSearch para interacción real con páginas.

bash
agent-browser open https://example.com
agent-browser snapshot -i          # Lista elementos (@e1, @e2...)
agent-browser fill @e1 "texto"
agent-browser click @e2
agent-browser screenshot result.png
Todas las capacidades
CategoríaComandos
Navegaciónopen, back, forward, reload, tab, frame
Interacciónclick, fill, type, select, upload, drag, hover
Capturascreenshot, pdf, record start/stop
Estadocookies, storage, state save/load
Rednetwork route, network requests
iOS/Mobile-p ios, tap, swipe, device list
Debug--headed, console, errors, trace

Además del CLI, agent-browser incluye skills especializadas que se sincronizan automáticamente:

SkillUso
agent-browserWorkflow completo: navegación, snapshots, formularios, autenticación, sesiones
dogfoodQA exploratorio: recorre la app como usuario real, genera reporte con screenshots y videos de repro
electronAutomatización de apps Electron (VS Code, Slack, Discord, Figma) vía CDP
vercel-sandboxBrowser automation dentro de microVMs efímeras de Vercel Sandbox

Se instala automáticamente. Ver Integraciones.


brainstorming

Convierte ideas vagas en diseños completos mediante diálogo.

"Necesito sistema de notificaciones push"

Flujo:

  1. Examina el proyecto, pregunta una cosa a la vez
  2. Propone 2-3 enfoques con trade-offs
  3. Diseña en secciones de 200-300 palabras, valida cada una
  4. Cristaliza diseño + escenarios en plan file nativo (plan mode)

Después: aprobación del plan → scenario-driven-development o ralph-orchestrator.


systematic-debugging

Proceso de 4 fases para encontrar root cause antes de intentar fixes.

Ley de hierro: NO fixes sin investigación de root cause primero.

Las 4 fases:

FaseActividadCriterio de éxito
1. Root CauseLeer errores, reproducir, check changesEntender QUÉ y POR QUÉ
2. PatternEncontrar ejemplos funcionales, compararIdentificar diferencias
3. HypothesisFormar teoría, testear mínimamenteConfirmado o nueva hipótesis
4. ImplementationCrear test, fix, verificarBug resuelto, tests pasan

Red flags — STOP y vuelve a Fase 1

  • "Quick fix por ahora, investigar después"
  • "Solo intenta cambiar X y ve si funciona"
  • Proponer soluciones sin trazar data flow
  • 3+ fixes fallidos → cuestiona la arquitectura

Técnicas incluidas:

  • root-cause-tracing.md — Trazar bugs hacia atrás en call stack
  • defense-in-depth.md — Validación en múltiples capas
  • condition-based-waiting.md — Reemplazar timeouts arbitrarios
  • find-polluter.sh — Script para encontrar test que contamina

pull-request

Quality gate para PRs: code review + security review + observaciones.

"Crear PR a main"

Flujo:

  1. Valida branch, extrae commits, detecta formato
  2. Ejecuta en paralelo: code review, security review, observaciones
  3. Presenta findings por severidad
  4. Opciones: Create PR / Auto fix / Cancel
  5. Auto fix → corrige → re-review → pregunta de nuevo
  6. Crea PR con findings documentados
Agentes que usa
  • code-reviewer — lógica, arquitectura, tests
  • security-reviewer — SQL injection, XSS, secrets

Requisitos: git, gh CLI


frontend-design

Interfaces web con dirección estética bold. Sin look genérico.

"Landing page para startup fintech"

Flujo obligatorio:

  1. Research — captura 3-5 referencias de Awwwards con agent-browser
  2. Sintetizar — extrae DNA (colores, tipografía, spacing)
  3. Commit — define dirección estética (brutalist, luxury, editorial...)
  4. Implementar — código funcional con atención a detalles
  5. Validar — compara contra referencias
Principios
  • Typography: Fonts distintivas. Nunca Arial/Inter/Roboto.
  • Color: Dominantes con acentos sharp, no gradientes tímidos.
  • Motion: CSS-only. Staggered reveals > micro-interactions.
  • Layout: Asimetría, overlap, grid-breaking, negative space.

humanizer

Identifica y elimina 33 patrones documentados de texto AI (EN+ES) del taxonomy Wikipedia AI Cleanup, con guía de voz en español.

PatrónEjemplos
Vocabulario AI"Additionally", "delve", "landscape", "tapestry"
Inflación"serves as a testament", "pivotal moment"
EstructuraRule of three, em dashes excesivos
Tono"Great question!", "I hope this helps!"
Spanish-specific"cabe destacar", "en el ámbito de", sinónimo cycling

Proceso (10 pasos):

  1. Detectar idioma del texto
  2. Identificar patrones AI (33 EN + ES patterns)
  3. Reescribir secciones problemáticas
  4. Preservar significado y tono
  5. Inyectar personalidad y voz
  6. Anti-AI audit — "¿qué hace esto obviamente AI?"
  7. Reescribir para eliminar tells restantes
  8. Guía de voz español (6 directrices con 69 líneas de referencia before/after)
  9. Ciclo draft/audit/rewrite hasta satisfacción
  10. Verificación final
Ejemplo

Antes:

The software update serves as a testament to the company's commitment to innovation.

Después:

The update adds batch processing, keyboard shortcuts, and offline mode.

No solo limpia — añade voz. Texto estéril es tan obvio como slop.


skill-creator

Crea, mejora y mide skills con un ciclo eval/benchmark integrado.

"Quiero crear un skill para X"
"Mejora el triggering del skill Y"
"Corre evals para comparar con y sin skill"

Ciclo:

  1. Capturar intent — entender qué debe hacer el skill
  2. Escribir draft del SKILL.md
  3. Crear test prompts y correr evals paralelos (con-skill vs baseline)
  4. Grading cuantitativo con assertions + viewer HTML para revisión cualitativa
  5. Reescribir basado en feedback → repetir hasta satisfacción
  6. Optimizar description para mejor triggering con script dedicado

Principios clave:

  • Eval-driven: No publiques sin medir. Evals paralelos comparan resultado con y sin skill.
  • Progressive Disclosure: Metadata siempre → SKILL.md al activar → references bajo demanda.
  • Grados de libertad: Bridge estrecho = guardrails estrictos. Campo abierto = instrucciones flexibles.
Anatomía de un skill
skill-name/
├── SKILL.md           # Frontmatter (name, description) + instrucciones
├── scripts/           # Código ejecutable (Python/Bash)
├── references/        # Docs cargadas bajo demanda
└── assets/            # Archivos para output (templates, imágenes)

context-engineering

Optimiza system prompts, CLAUDE.md, AGENTS.md y arquitecturas de agentes.

"Mi agente no usa las tools disponibles"
"Optimiza este CLAUDE.md para mejor activación"

Cuándo usarlo:

  • Agentes que underperform pese a instrucciones correctas
  • Diseño de system prompts o AGENTS.md
  • Optimización de token efficiency en context windows
  • Pérdida de coherencia en tareas largas

Basado en:


commit

Commits semánticos con agrupación automática por tipo de archivo.

bash
/commit "feat(auth): add OAuth2 support"
bash
/commit "TRV-345 implementar autenticación"
# Output: feat|TRV-345|20260131|implementar autenticación
bash
/commit "refactor: TRV-345 mejorar módulo auth"

Agrupación automática: Si modificas archivos de 2+ categorías (config + código, docs + tests), crea commits separados por tipo.


changelog

Actualiza CHANGELOG.md basándose en el diff real, no en commits.

bash
/changelog "desde última versión"
/changelog "desde v2.0.0"

Por qué diff y no commits:

Commits:                    Diff real:
1. feat: add caching        Solo existe: logging.py
2. fix: caching bug
3. revert: remove caching   El caching NO EXISTE.
4. feat: add logging        Documentarlo sería mentir.

El changelog documenta qué existe, no qué se intentó.


branch-cleanup

Limpieza después de merge: elimina feature branch, sincroniza con base.

bash
/branch-cleanup        # Auto-detecta base (main/master/develop)
/branch-cleanup main   # Base explícita

GitHub elimina la branch remota al mergear. Este skill limpia la local.


worktree-create

Crea worktree en directorio sibling con rama nueva.

bash
/worktree-create "implementar autenticacion OAuth" main
# Crea: ../worktree-implementar-autenticacion-oauth

Branch vs Worktree

Branch: Desarrollo lineal, una feature a la vez. Worktree: Múltiples features en paralelo, cada una en directorio aislado.

Después de crear

El IDE se abre automáticamente, pero debes iniciar nueva sesión Claude en esa ventana. Si no, Claude sigue trabajando en el directorio anterior.


worktree-cleanup

Elimina worktrees con validación de ownership.

bash
/worktree-cleanup              # Discovery: lista disponibles
/worktree-cleanup worktree-1   # Eliminar específico

Restricciones:

  • Solo elimina worktrees que te pertenecen
  • No toca branches protegidas (main, develop, staging)
  • Requiere working tree limpio

project-init

Genera reglas de proyecto compartibles con el equipo.

bash
/project-init

Arquitectura dual:

docs/claude-rules/    ← TRACKED (source of truth)
├── stack.md
├── patterns.md
├── architecture.md
└── testing.md
        ↓ session-start hook (auto-sync)
.claude/rules/        ← IGNORED (working copy)

Las reglas viven en docs/claude-rules/ para versionarlas y reviewarlas en PRs. El hook de session-start las sincroniza a .claude/rules/ automáticamente.

Para nuevos miembros

Si el proyecto ya tiene docs/claude-rules/, no necesitas ejecutar /project-init. El hook sincroniza automáticamente.


deep-research

Motor de investigación con patrón STORM (multi-perspectiva), protocolo anti-alucinación, y artefactos persistentes.

bash
/deep-research "análisis competitivo sector fintech"

Ley de hierro:

NO CLAIM WITHOUT CITATION.
NO CITATION WITHOUT NAVIGATION.
NO SYNTHESIS WITHOUT CROSS-VALIDATION.
INSUFFICIENT EVIDENCE → SAY SO.

Metodología (patrón STORM):

  • Genera 2+ perspectivas por sub-pregunta — cobertura casi se duplica vs single-viewpoint
  • Routing inteligente: API/framework → Context7 primero, navegación compleja → agent-browser
  • Validación incremental con confidence por claim (High/Medium/Low/Insufficient)
  • Artefactos persistentes en .research/ (research-state.md como source of truth)

Protocolo anti-alucinación:

  • Confabulation → no facts sin URL navegada
  • Citation fabrication → verificar que URL carga y contiene el claim
  • Plausible interpolation → "typically/generally" no es evidencia
  • Authority laundering → navegar a fuente primaria, no citar secundarias

Usa agent-browser y Context7 para navegación real, no training data.


Ralph Orchestrator + SOP Skills

ralph-orchestrator entry point

Entry point para desarrollo autónomo. Orquesta el pipeline completo — de la idea al código revisado — usando Agent Teams con contexto fresco por teammate.

Ver página dedicada → — arquitectura, paso a paso, configuración, safety nets, modelo de costos.

En resumen: planificación en 2 modos (interactive/autonomous), checkpoint obligatorio, ejecución via Agent Teams con quality gates enforced por hooks y reviewer teammate que valida SDD compliance.

SOP Skills

Ralph orquesta estos skills en secuencia. Rara vez los invocarás directamente — Ralph los llama por ti.

SkillFaseQué haceOutput
sop-discoveryExploraciónConstraints, riesgos, prior artdiscovery.md
sop-reverseExploraciónReferent discovery + reverse engineeringreferents/catalog.md
sop-planningDiseñoRequirements → Research → Designdetailed-design.md, plan.md
sop-task-generatorPlanificaciónPlan → task files con acceptance criteria.code-task.md files
sop-code-assistEjecuciónImplementa con SDD (SCENARIO→SATISFY→REFACTOR)Código + tests + commits
sop-reviewerPost-ejecución5 gates: SDD compliance, reward hacking, qualityReview pass/reject

scenario-driven-development

Metodología core del framework. Todo código se implementa con el ciclo SCENARIO → SATISFY → REFACTOR.

Ley de hierro:

NO PRODUCTION CODE WITHOUT A DEFINED SCENARIO FIRST

Concepto clave: un scenario NO es un test. Es una user story end-to-end con comportamiento observable desde la perspectiva del usuario.

ScenarioTest
ViveEn el spec o externalEn el codebase
Evalúa"¿Satisface al usuario?""¿Pasa?"
Vulnerable aNada (holdout externo)Reward hacking

Satisfacción ≠ Pass/Fail: SDD reemplaza el boolean "todos los tests pasan" con convergencia probabilística — ¿qué fracción de trayectorias por los scenarios satisface al usuario?

Ciclo:

  1. Definir scenario como user story con valores concretos
  2. Encodificar como test que falla
  3. Implementar código mínimo para satisfacer
  4. Refactor sin romper satisfacción
  5. Repetir hasta convergencia

verification-before-completion

Gate de evidencia que se ejecuta antes de cualquier claim de completitud. "Los tests pasan" sin output no es evidencia.

Ley de hierro:

NO COMPLETION CLAIMS WITHOUT FRESH VERIFICATION EVIDENCE

Los 6 pasos:

PasoAcción
1. IDENTIFYLista cada claim que vas a hacer
2. RUNEjecuta el comando de verificación AHORA
3. READLee el output COMPLETO — no skimees
4. VERIFYConfirma que el output coincide con tu claim
5. SATISFYVerifica contra scenarios definidos
6. REPORTReporta [M/N satisfechos] con evidencia

"Lo corrí antes" no cuenta. "Los tests pasan" sin output no cuenta. Solo evidencia fresca y observable.


Workflows típicos

EscenarioSkills
Feature nueva/brainstorming → plan mode → /scenario-driven-development/verification-before-completion/commit/pull-request
Bug fix urgente/worktree-create → fix → /commit/pull-request
Desarrollo autónomo/ralph-orchestrator (orquesta todo el pipeline)
Post-merge/branch-cleanup

Más skills

Para plugins externos (Episodic Memory, Superpowers) y catálogos de terceros (skills.sh), ver Integraciones.


Troubleshooting

Skill no se activa

Sé específico o menciónalo:

❌ "Ayuda con código"
✅ "Crear PR a main"
✅ "Usando pull-request: crear PR"
Skill desactualizado
bash
/plugin marketplace update ai-framework-marketplace
/plugin update ai-framework@ai-framework-marketplace
SOP no genera output

Verifica que existe specs/ en tu proyecto.


Siguiente paso: Agentes


Última actualización

Fecha: 2026-03-11