El flujo de trabajo: de datos crudos a una wiki viva
Andrej Karpathy, uno de los mayores expertos en inteligencia artificial y exdirector de IA en Tesla y miembro fundador de OpenAI, ha compartido un sistema que está transformando su propia productividad investigadora. En lugar de usar modelos de lenguaje grandes (LLMs, como Claude o GPT) solo para generar código o respuestas puntuales, Karpathy los emplea para crear y mantener bases de conocimiento personales. El proceso comienza con una carpeta llamada “raw/” donde almacena documentos originales: artículos científicos, papers, repositorios de código, datasets e incluso imágenes. Un LLM se encarga de “compilar” todo eso de forma incremental en una wiki organizada en archivos Markdown (.md), un formato de texto simple y universal que permite enlaces, listas y formato básico sin complicaciones.
El modelo genera resúmenes automáticos, crea artículos temáticos sobre conceptos clave, establece enlaces cruzados (backlinks) y categoriza la información. Todo se hace de manera progresiva: cada nuevo documento se integra sin romper la estructura existente. Karpathy evita herramientas complejas de recuperación aumentada (RAG) porque el propio LLM mantiene índices y resúmenes breves que le permiten navegar la colección con facilidad. Este paso elimina el trabajo manual de organización y convierte datos dispersos en un recurso coherente y vivo.
LLM Knowledge Bases
Something I’m finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating…
— Andrej Karpathy (@karpathy) April 2, 2026
Obsidian como interfaz: el “frontend” que deja el control al LLM
La herramienta visual es Obsidian, una aplicación gratuita que funciona como un editor de notas local basado en archivos Markdown. No es un simple bloc de notas: crea una red de conocimiento donde cada archivo se conecta con otros mediante enlaces automáticos, generando gráficos visuales de relaciones entre ideas. Karpathy casi nunca edita manualmente la wiki; el LLM escribe y actualiza todo. Usa el “Obsidian Web Clipper” para capturar artículos web y descarga imágenes relacionadas, de modo que el modelo pueda referenciarlas directamente.
Además, ha integrado complementos para renderizar presentaciones (con Marp) o visualizaciones. El resultado es un entorno donde el investigador solo observa y consulta: la inteligencia artificial se convierte en el verdadero autor y mantenedor de la base de conocimiento.
Consultas complejas y salidas que enriquecen la wiki
Cuando la colección alcanza un tamaño crítico – en su caso, alrededor de 100 artículos y 400.000 palabras -, el verdadero poder emerge. Karpathy formula preguntas complejas al LLM, que investiga internamente en toda la wiki, cruza información y genera respuestas profundas. En lugar de respuestas en texto plano, el modelo produce archivos Markdown nuevos, presentaciones en formato Marp o incluso gráficos generados con herramientas como Matplotlib. Todas estas salidas se guardan automáticamente de vuelta en la wiki, haciendo que cada consulta mejore la base para futuras consultas.
Este bucle de retroalimentación convierte la investigación en un proceso acumulativo: el conocimiento no se pierde ni se olvida; se consolida.
Mantenimiento inteligente y el camino hacia productos dedicados
Karpathy no se detiene en la creación. Ejecuta “chequeos de salud” con el LLM para detectar inconsistencias, completar datos faltantes (usando búsquedas web cuando es necesario) o sugerir nuevos artículos basados en conexiones inesperadas. También ha desarrollado herramientas auxiliares, como un motor de búsqueda simple sobre la wiki, que el propio LLM puede invocar.
El experto reconoce que, por ahora, todo se sostiene con scripts improvisados, pero afirma con contundencia que existe un enorme espacio para un producto profesional que elimine la fricción técnica. En el futuro inmediato, planea generar datos sintéticos a partir de la wiki y ajustar (fine-tuning) modelos para que incorporen el conocimiento directamente en sus pesos, en lugar de depender solo de la ventana de contexto.
Por qué este enfoque confronta el uso convencional de la IA
Durante años, los LLMs se han usado principalmente para tareas puntuales o generación de código. Karpathy demuestra que su verdadero valor radica en convertirse en colaboradores de conocimiento a largo plazo. Este cambio no es solo técnico: es estructural. Reduce la carga cognitiva del investigador, acelera la síntesis de ideas y permite exploraciones que antes requerían equipos enteros. Sin embargo, exige disciplina inicial en la ingestión de datos y confianza en que el modelo mantenga la integridad. Quien adopte este método correctamente dejará atrás la fragmentación de notas aisladas y entrará en una era donde la IA no solo responde, sino que construye y refina el propio intelecto del usuario.
Fuentes
- Andrej Karpathy (2026). LLM Knowledge Bases. X (Twitter). https://x.com/karpathy/status/2039805659525644595
- Obsidian (s.f.). Obsidian.md – The knowledge base that works with your brain. https://obsidian.md