Stell dir vor, jeder relevante Punkt aus jedem LinkedIn-Post, jedem Buch, jeder Website, jedem Blogartikel, jeder Erkenntnis, die du jemals gelesen hast, fließt für immer in dein persönliches digitales Wissen ein. Mit jedem weiteren Häppchen an relevanter Information wächst es weiter, vergisst nichts, verwertet neue Erkenntnisse, bleibt immer aktuell, persönlich, nur das was dich interessiert. Kein Müll. Immer auf den Punkt.
Stell dir vor, du hättest ein zusätzliches digitales Gehirn, das in vielen Aufgaben deutlich leistungsfähiger ist als dein primäres und dich dadurch absolut unschlagbar macht. Das ist das Second Brain!
Dein persönliches Second Brain, gebaut aus Markdown-Dateien und einem LLM. Du lieferst Quellen, stellst Fragen. Das Modell pflegt dein Wissen.
- Motivation
- Quick Start
- Prinzip
- Was es ist
- Was es nicht ist
- Struktur
- Obsidian (optional)
- Web Clipper (optional)
- Beispiel Use Case
- Weitere Use Cases
- Voraussetzungen
- Lizenz
Tiago Forte hat bereits 2017 den Ansatz vorgestellt, Wissen extern zu organisieren und systematisch nutzbar zu machen, und ihn 2022 mit dem Buch Building a Second Brain einem breiten Publikum zugänglich gemacht: Erfassen, Organisieren, Destillieren, Ausdrücken. Das Problem: die Pflege bleibt am Menschen hängen, und Menschen geben auf.
Anfang April 2026 veröffentlichte Andrej Karpathy auf X einen Post, der mit über 12 Millionen Views viral ging. Seine Lösung: ein LLM übernimmt die gesamte Pflege. Statt RAG (bei jeder Frage Dokumentfragmente suchen) kompiliert das Modell ein persistentes, wachsendes Wiki. Quellen rein, strukturiertes Wissen raus. Das Wiki verlinkt sich selbst, erkennt Widersprüche und wird mit jeder Quelle wertvoller. Er nannte es LLM-Wiki.
"Humans abandon wikis because the maintenance burden grows faster than the value. LLMs don't get bored."
Dieses Repo ist eine funktionierende Umsetzung davon. Das Second Brain Prinzip, umgesetzt als LLM-Wiki. Karpathys Idee habe ich weiter optimiert und ausgebaut. Bewusst minimal. Kein spezielles Tooling, kein Lock-in. Nur ein Prompt, der jedem LLM beibringt, dein Wissen zu pflegen.
- Repo klonen.
git clone https://github.com/thecodemonkey/secondbrain.git cd secondbrain - LLM starten. Öffne einen beliebigen KI-Agenten im Repo-Verzeichnis (Copilot CLI, Claude Code, Cursor, …)
copilot - Quelle ablegen oder direkt per URL ingesten:
Alternativ eine Datei in
Ingeste https://de.wikipedia.org/wiki/Transformer_(Maschinelles_Lernen)raw/ablegen und dann ingesten:Ingeste raw/transformer-wikipedia.md - Fragen stellen:
Was ist der Unterschied zwischen Self-Attention und Cross-Attention? - Wiki prüfen (optional). Jederzeit separat ausführbar:
Führe einen Lint durch
Das Modell liest AGENTS.md, erstellt Quellzusammenfassung, Konzeptseiten, Entitäten, setzt Querverweise und aktualisiert Index und Log. Fragen werden direkt aus dem Wiki beantwortet. Der Lint prüft auf kaputte Links, verwaiste Seiten und Frontmatter-Probleme. Das Wiki wächst in wiki/.
raw/ wiki/
┌─────────────────┐ ┌─────────────────────────┐
│ Artikel.pdf │ │ sources/artikel.md │
│ Notizen.md │ → LLM → │ concepts/thema-x.md │
│ Wikipedia.txt │ │ entities/person-y.md │
│ LinkedIn.posts │ │ index.md · log.md │
└─────────────────┘ └─────────────────────────┘
rein damit. strukturiert, verlinkt,
validiert, plausibilisiert.
Du wirfst rohe, ungefilterte Inhalte rein. Artikel, PDFs, Notizen, Copy-Paste aus dem Web. Das System zerlegt alles automatisch in Wissensbausteine, erkennt Konzepte und Entitäten, verlinkt sie untereinander, prüft auf Duplikate und Widersprüche und reichert dein Second Brain mit jedem neuen Input an. Du denkst und kuratierst. Das Modell organisiert, destilliert und pflegt.
Der Destillierungsvorgang im Detail :
Der gesamte Vorgang wird weitgehend autonom durch den AI-Agenten ausgeführt. Der User gibt lediglich rohe Inhalte ein und greift nur dann ein, wenn Widersprüche erkannt werden, um eine Entscheidung zu treffen.
flowchart TD
A["👤 Quelle: PDF Markdown URL Text"] --> B[Quelle lesen und Kernerkenntnisse extrahieren]
B --> C{Duplikat-Check}
C -->|Neues Wissen| D[Neue Seite anlegen]
C -->|Delta erkannt| E[In bestehende Seite mergen]
C -->|Bereits vorhanden| F[Ueberspringen]
D --> G[Quellzusammenfassung erstellen]
E --> G
F --> G
G --> H[Konzepte und Entitaeten extrahieren]
H --> I[Wikilinks zwischen allen Seiten setzen]
I --> J[Index und Overview aktualisieren]
J --> K{Widerspruchs-Check}
K -->|Konflikt| L["👤 User entscheidet"]
K -->|Kein Konflikt| M[Vorgang im Log protokollieren]
L --> M
Eine Verzeichnisstruktur (wiki/, raw/) und ein Prompt (AGENTS.md). Drei Operationen:
- Ingest (Neues Wissen aufnehmen)
- Query (Frage beantworten)
- Lint (Health Check).
Das LLM erstellt Quellzusammenfassungen, Konzeptseiten, Entitäten, Querverweise, Index und Log. Duplikat-Erkennung, Delta-Merge und Widerspruchs-Check sind im Prompt definiert.
Kein RAG-System. Wissen wird kompiliert, nicht bei jeder Frage gesucht. Kein SaaS. Alles liegt lokal als .md-Dateien. Nicht an ein Modell gebunden. Funktioniert mit Claude, GPT, Gemma, LLaMA oder was auch immer Markdown versteht.
AGENTS.md ← Der Prompt: definiert Rollen, Workflows, Konventionen
raw/ ← Deine Quellen (unveränderlich)
wiki/ ← Vom LLM generiert und gepflegt
index.md ← Inhaltsverzeichnis
overview.md ← Aktueller Stand
log.md ← Chronologisches Protokoll
sources/ ← Quellzusammenfassungen
concepts/ ← Konzeptseiten
entities/ ← Personen, Orte, Organisationen
projects/ ← Projektspezifische Ideen und Vorhaben (kein finales Wissen, sondern laufende Pläne)
scripts/
lint-wiki.py ← Gesundheitscheck (kaputte Links, verwaiste Seiten)
Das Wiki ist Obsidian-kompatibel. [[Wikilinks]], YAML-Frontmatter und Graph-Ansicht funktionieren out of the box. Obsidian ist nicht nötig, macht aber das Lesen und Navigieren deutlich angenehmer.
Einrichtung in 4 Schritten:
- Obsidian herunterladen und installieren: obsidian.md/download (kostenlos, Windows / macOS / Linux)
- Obsidian starten → beim Startbildschirm „Open folder as vault" wählen → das Repo-Verzeichnis (
secondbrain/) auswählen. - Wiki durchstöbern: Im Datei-Explorer links die Dateien unter
wiki/öffnen. Wikilinks sind klickbar. - Graph-Ansicht öffnen:
Ctrl+G(macOS:Cmd+G) oder über die Kommando-Palette (Ctrl+P→ „Graph view"). Du siehst sofort das Wissensnetz deines Second Brains, alle Seiten als Knoten, alle Wikilinks als Verbindungen.
Tipp: Unter Settings → Files & Links die Option „Detect all file extensions" aktivieren, damit auch PDFs in
raw/sichtbar sind.
Mit dem Obsidian Web Clipper können Webseiten direkt beim Surfen als Markdown in den raw/ Ordner gespeichert und anschließend vom LLM ingestiert werden.
- Plugin installieren: Chrome · Firefox · Edge · Safari
- In den Clipper-Einstellungen den Vault auf das Repo und den Zielordner auf
raw/setzen. - Beim Surfen auf das Clipper-Icon klicken. Die Seite wird als Markdown in
raw/abgelegt. - Dem LLM sagen:
Ingeste raw/meine-webseite.md
Voraussetzung: Obsidian v1.7.2+ · GitHub
Wirf deinen Lebenslauf als PDF, deine persönliche Website oder beides in raw/. Das LLM zerlegt alles automatisch in Entitäten (Arbeitgeber, Projekte), Konzepte (Skills, Technologien) und Quellen.
Ingeste raw/lebenslauf.pdf
Ingeste raw/meine-website.md
Ab jetzt ist dein berufliches Wissen strukturiert und abfragbar. Neue Erfahrungen lassen sich jederzeit punktuell ergänzen:
Füge folgendes Projekt hinzu: "Migration einer Monolith-Architektur zu Microservices bei Firma X, 2025, Kotlin, AWS"
Das Wiki wächst mit jedem Eintrag. Und weil alles strukturiert vorliegt, kann das LLM daraus jederzeit neue Artefakte generieren:
Erstelle einen aktuellen Lebenslauf als Markdown mit Fokus auf Cloud-Projekte
Schreibe eine Projektliste für meine Website, sortiert nach Technologie
Das Second Brain vergisst nichts, hält alles verlinkt und liefert auf Anfrage genau den Ausschnitt, den du brauchst:
Was habe ich zwischen 2012 und 2018 beruflich gemacht?
In welchen Projekten habe ich Kafka verwendet?
Das Second Brain ist nicht auf ein Thema beschränkt. Alles, was sich als Wissen strukturieren lässt, passt rein:
| Use Case | So geht's |
|---|---|
| Schreibstil für LinkedIn / X | Eigene Beiträge und Favoriten ingesten. Das LLM lernt deinen Ton und kann neue Posts in deinem Stil entwerfen. |
| Steuern und Finanzen | Steuerrichtlinien, Finanzamt-Dokumente und Steuertipps einspeisen. Bei der nächsten Steuererklärung einfach fragen: „Kann ich das Arbeitszimmer absetzen?" |
| Kochen und Ernährung | Lieblingsrezepte, Ernährungspläne und Lebensmittelwissen sammeln. „Was kann ich mit Süßkartoffeln und Kichererbsen kochen?" |
| Reiseplanung | Reiseführer, Blogposts und persönliche Reisenotizen ingesten. Das Wiki wird zum personalisierten Reiseguide. |
| Lernen und Studium | Vorlesungsskripte, Paper und Buchnotizen einspeisen. Vor der Prüfung fragen: „Fasse mir Kapitel 5 zusammen." |
| Gesundheit und Fitness | Trainingspläne, Arztberichte und Gesundheitsartikel sammeln. „Welche Übungen helfen bei Rückenschmerzen?" |
| Tech-Radar | Blogartikel, Release Notes und Konferenz-Talks zu neuen Technologien ingesten. Immer wissen, was sich in deinem Stack tut. |
- Ein LLM-Agent mit Dateizugriff (z.B. GitHub Copilot CLI, Claude Code, Cursor, Windsurf …)
- Python 3 für
scripts/lint-wiki.py(optional) AGENTS.mdenthält den System-Prompt. Je nach Agent muss die Datei ggf. anders heißen oder explizit übergeben werden. Beispiel: Für Claude Code inCLAUDE.mdumbenennen oder den Inhalt direkt als Context mitgeben.
MIT
