Markdown plano + LLM como redactor + humano como editor.
90-120 min para salir con tu propio wiki personal funcionando.
Cinco síntomas que reconocerás. Si te pasan tres o más, este taller es para ti.
Cada sesión con Claude/ChatGPT empieza desde cero. Lo bueno que descubriste ayer no llega a hoy.
Memoria de Claude, memoria de Cursor, memoria de Codex, memoria de ChatGPT. El conocimiento existe — atrapado en silos que no se hablan.
Apple Notes, Notion, Bear, Drafts, post-its. Cinco apps, cero recuperación.
Pinboard, Raindrop, una carpeta de favoritos del navegador. URLs sin contexto, fríos al volver.
Bases de datos preciosas que nadie consulta. Estructura sin uso = ruido caro.
El mismo modelo formal que usan Google, Wikipedia y Obsidian. Tres elementos. Si tomas notas con cuidado, el grafo emerge solo.
Persona, idea, lugar, evento, concepto. En tu wiki: una página .md.
[[mcp]]Causa, depende de, referencia, deriva en. En tu wiki: un [[wiki-link]] dentro de una página.
X usa YSujeto + relación + objeto. La unidad mínima del conocimiento estructurado.
mcp · expone · toolsNo diseñas el grafo top-down. Emerge cada vez que enlazas una página a otra con [[…]]. El resultado: un mapa de tu pensamiento que se compone con el tiempo, no se acumula. Wikipedia visualizada en Obsidian (1,1% de su contenido) ya forma una constelación densa — el tuyo lo hará al cabo de meses.
Markdown plano + LLM como redactor + humano como editor. Tres piezas, una arquitectura.
Ficheros .md versionados con git. Sin lock-in, sin BBDD, sin builds. Tu corpus es portable y dura décadas.
Tu agente (Claude, Codex, OpenCode, Copilot…) lee fuentes en bruto, sintetiza, conecta páginas, mantiene índice y log. Trabajo barato y reproducible.
Tú decides qué entra, citas las fuentes, validas el plan antes de escribir, refinas el resultado. La calidad sigue siendo humana.
"Instead of just retrieving from raw documents at query time, the LLM incrementally builds and maintains a persistent wiki, a structured interlinked collection of markdown files that sits between you and the raw sources. The knowledge is compiled once and then kept current. It's not rederived on every query."
RAG vectorial te devuelve fragmentos sueltos por similitud. Funciona para "¿qué es X?". Falla cuando la respuesta vive entre documentos: qué libro llevó a cuál, qué capítulos están relacionados, qué ideas dependen de otras. Un wiki interconectado da al agente lo que un bibliotecario daría a un investigador: rutas, no fragmentos.
El patrón se descompone en tres capas explícitas. Dentro del wiki compilado, seis piezas hacen que sea recuperable, auditable y portable.
raw/Fuentes en bruto: artículos clipped, PDFs, transcripciones, notas. Sin tocar. Política propia tras ingestar (conservar / archivar / eliminar).
wiki/Páginas .md sintetizadas e interconectadas. Frontmatter YAML, [[wiki-links]], index.md plano, log.md append-only, MOCs temáticos cuando un dominio crece.
mantenimientoEl agente revisa contradicciones, páginas huérfanas, datos obsoletos, conceptos sin página propia. La salud del baúl no la mantienes tú: la dirige tu agente.
Tú decides qué subcarpetas tiene wiki/ tras la entrevista de finalidad. El patrón no impone vertical: una página = una idea, las carpetas las nombras tú.
tipo, resumen, fuentes, actualizado, tags. Obsidian lo renderiza como Properties; Dataview lo consulta.
Tabla de contenidos con una línea por página. Sin él, el agente no sabe qué hay y duplica páginas.
Cada operación queda registrada con formato "[YYYY-MM-DD] tipo | título". Auditable con grep.
Cuando un dominio acumula >10 páginas, un Map of Content (wiki/<dominio>.md) agrupa con queries Dataview.
Una plantilla por tipo (concepto, referencia, nota, …) garantiza frontmatter consistente y secciones canónicas.
Antes del Hands-on tienes que decidir: ¿el agente toca tus notas propias o solo el material que sintetiza? Tres opciones, una pregunta en la Entrevista de finalidad.
Mismo repo · sin separación human-vault/ + llm-vault/ wiki/humano/ + wiki/llm/ Sea cual sea la decisión, el agente siempre cita la fuente original (URL, libro, repo) y nunca un fichero raw/ intermedio. Esa regla es independiente del firewall que elijas.
El starter no impone una vertical. Vienen activas tres plantillas que sirven para casi cualquier caso, y el agente activa las opcionales que encajen tras la entrevista de finalidad.
| tipo | cuándo usarla |
|---|---|
concepto | Idea reutilizable que se cita desde varias páginas |
referencia | Fuente externa (artículo, paper, vídeo, libro, repo) |
nota | Entrada genérica — la más flexible |
En templates/opcionales/. El agente recomienda mover a templates/ las que encajen con tu caso.
| tipo | cuándo encaja |
|---|---|
proyecto | Una página por proyecto, repo, cliente o iniciativa |
herramienta | Una herramienta concreta del stack |
identidad | Perfil, trayectoria, valores (si tu wiki incluye marca personal) |
comunidad | Marca, audiencia, canales (si gestionas una comunidad o producto) |
operativa | Roadmap, ideas, playbooks, ADRs |
Los tags del frontmatter siguen un vocabulario común para que las queries Dataview funcionen. Empieza con pocos — si una finalidad es estudio, prueba tema, examen; si es cliente, requisito, incidencia; si es hobby, los términos de tu dominio. Regla: cada nuevo tag debería aparecer en 2-3 páginas para ganarse su sitio.
Una sola fuente puede afectar a 5-10 páginas. Es normal. El flujo es siempre el mismo, lo que cambia es el contenido.
Identifica autor, fecha y URL real. El fichero raw es solo un contenedor efímero.
El agente propone un plan: qué páginas crear o actualizar, agrupadas por tema (no por fichero).
Tú validas: fusiona páginas redundantes, descarta lo que no aporta, añade conexiones que faltan.
Cada página parte de templates/<tipo>.md. Frontmatter completo, secciones canónicas, [[wikilinks]].
En frontmatter y en cuerpo. NUNCA el fichero raw. La regla protege la portabilidad de tu corpus.
Una línea por página nueva en index, una entrada `## [YYYY-MM-DD] ingest | …` en log.
Conservar (default), archivar a raw/_archived/<año>/ o eliminar. Lo decides tú en la Entrevista de finalidad. Notas propias y transcripciones únicas suelen pedir conservar.
Objetivo: vault abierto en Obsidian, plugins activos, finalidad del wiki definida con el agente (estructura inicial decidida), primer commit.
git clone https://github.com/CodigoSinSiesta/taller-llm-wiki-starter mi-wiki
cd mi-wiki Renombra mi-wiki a algo personal y elimina el remote del starter si lo vas a publicar.
File → Open vault → Open folder as vault → selecciona mi-wiki/.
Activa:
templatesmi-wiki/ y *Default folder* a raw/.claude # Claude Code
codex # Codex CLI
opencode # OpenCode
# o abre Copilot/Cursor Pídele literalmente:
"Lee AGENTS.md entero. Después hazme una Entrevista de finalidad: 5-7 preguntas cortas sobre finalidad, qué fuentes voy a meter (incluyendo notas propias o chats), qué política aplicar a raw/ tras ingestar (conservar / archivar / eliminar), y si hay subdominios obvios. Cuando tengas mis respuestas, propóname subcarpetas + plantillas a activar + política de raw/. No escribas nada hasta que apruebe el plan."
El agente actualiza la sección Propósito de AGENTS.md, crea las subcarpetas y registra todo en wiki/log.md.
git add .
git commit -m "Setup inicial: AGENTS.md personalizado y estructura definida" Ya tienes la base con la forma de tu caso. El siguiente hands-on convierte una fuente real en páginas conectadas.
Convierte raw/ejemplo-articulo.md en páginas conectadas, después haz una pregunta al wiki y guarda la respuesta.
raw/ejemplo-articulo.md en Obsidian."Léelo entero, identifica la fuente original y proponme un plan: qué páginas crearías o actualizarías, agrupadas por tema. No escribas nada todavía."
git diff."¿Cuándo recomiendas usar <concepto-X> y cuándo no? Mira primero index.md y las páginas creadas en el ejercicio anterior. Señala qué partes son del wiki y qué partes vienen de fuera."
meta en log.El wiki no solo crece por ingesta de raw/. Cada conversación útil con tu agente es conocimiento candidato a guardarse. Si no lo archivas, lo pierdes en la siguiente sesión.
El wiki funciona con solo markdown + tu agente. Estas cuatro extensiones aportan ROI distinto según el tamaño de tu corpus.
Queries sobre tu frontmatter: tablas de páginas por tag, listados de stale notes, conteos por tipo. Hace que el wiki responda preguntas, no solo guarde.
El graph view de Obsidian detecta clusters y huérfanas. Cuando un cluster pasa de 10 páginas, conviértelo en MOC (wiki/<dominio>.md).
Cada 2-4 semanas pide a tu agente un lint: huérfanas, contradicciones, conceptos sin página, citas mal apuntadas, data gaps con consultas web.
Convierte tu vault en grafo de conocimiento con clusters Leiden. Útil como auditoría, no como pipeline regular. ROI bajo si tu wiki es pequeño.
~10-20 páginas. Pocos enlaces. Sensación de "carpeta vacía con frontmatter".
Recompensa: Casi ninguna. Es el tramo más frustrante.
~80-150 páginas. Clusters temáticos visibles. El agente empieza a conectar páginas que tú olvidaste.
Recompensa: Primeras sorpresas: "ya tenía una nota de esto hace 4 meses".
Constelación densa. Cada idea nueva se acopla a 3-5 existentes. El wiki piensa contigo.
Recompensa: Compounding pleno. La inversión semanal de 30 min vale más que cualquier libro.
30 min de ingesta semanal > 4h de sprint mensual. La constancia gana al volumen porque el wiki necesita conexiones, no acumulación. El primer mes es el más caro y el menos rentable — atravesarlo es el filtro real.
Bloquea 30 minutos en tu calendario para esta misma semana. Lleva una sola fuente que tengas pendiente —URL, PDF, transcript— e ingéstala con tu agente.
Si en una semana no has hecho la primera ingesta real, este taller no se habrá traducido en wiki. La inercia es el único enemigo serio.
Gracias. ¿Preguntas?