Skip to content

thecodemonkey/secondbrain

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Second Brain

Wiki Graph

Stell dir vor, jeder relevante Punkt aus jedem LinkedIn-Post, jedem Buch, jeder Website, jedem Blogartikel, jeder Erkenntnis, die du jemals gelesen hast, fließt für immer in dein persönliches digitales Wissen ein. Mit jedem weiteren Häppchen an relevanter Information wächst es weiter, vergisst nichts, verwertet neue Erkenntnisse, bleibt immer aktuell, persönlich, nur das was dich interessiert. Kein Müll. Immer auf den Punkt.

Stell dir vor, du hättest ein zusätzliches digitales Gehirn, das in vielen Aufgaben deutlich leistungsfähiger ist als dein primäres und dich dadurch absolut unschlagbar macht. Das ist das Second Brain!

Dein persönliches Second Brain, gebaut aus Markdown-Dateien und einem LLM. Du lieferst Quellen, stellst Fragen. Das Modell pflegt dein Wissen.

Inhalt

  1. Motivation
  2. Quick Start
  3. Prinzip
  4. Was es ist
  5. Was es nicht ist
  6. Struktur
  7. Obsidian (optional)
  8. Web Clipper (optional)
  9. Beispiel Use Case
  10. Weitere Use Cases
  11. Voraussetzungen
  12. Lizenz

Motivation

Tiago Forte hat bereits 2017 den Ansatz vorgestellt, Wissen extern zu organisieren und systematisch nutzbar zu machen, und ihn 2022 mit dem Buch Building a Second Brain einem breiten Publikum zugänglich gemacht: Erfassen, Organisieren, Destillieren, Ausdrücken. Das Problem: die Pflege bleibt am Menschen hängen, und Menschen geben auf.

Anfang April 2026 veröffentlichte Andrej Karpathy auf X einen Post, der mit über 12 Millionen Views viral ging. Seine Lösung: ein LLM übernimmt die gesamte Pflege. Statt RAG (bei jeder Frage Dokumentfragmente suchen) kompiliert das Modell ein persistentes, wachsendes Wiki. Quellen rein, strukturiertes Wissen raus. Das Wiki verlinkt sich selbst, erkennt Widersprüche und wird mit jeder Quelle wertvoller. Er nannte es LLM-Wiki.

"Humans abandon wikis because the maintenance burden grows faster than the value. LLMs don't get bored."

Dieses Repo ist eine funktionierende Umsetzung davon. Das Second Brain Prinzip, umgesetzt als LLM-Wiki. Karpathys Idee habe ich weiter optimiert und ausgebaut. Bewusst minimal. Kein spezielles Tooling, kein Lock-in. Nur ein Prompt, der jedem LLM beibringt, dein Wissen zu pflegen.

Quick Start

  1. Repo klonen.
    git clone https://github.com/thecodemonkey/secondbrain.git
    cd secondbrain
    
  2. LLM starten. Öffne einen beliebigen KI-Agenten im Repo-Verzeichnis (Copilot CLI, Claude Code, Cursor, …)
    copilot
    
  3. Quelle ablegen oder direkt per URL ingesten:
    Ingeste https://de.wikipedia.org/wiki/Transformer_(Maschinelles_Lernen)
    
    Alternativ eine Datei in raw/ ablegen und dann ingesten:
    Ingeste raw/transformer-wikipedia.md
    
  4. Fragen stellen:
    Was ist der Unterschied zwischen Self-Attention und Cross-Attention?
    
  5. Wiki prüfen (optional). Jederzeit separat ausführbar:
    Führe einen Lint durch
    

Das Modell liest AGENTS.md, erstellt Quellzusammenfassung, Konzeptseiten, Entitäten, setzt Querverweise und aktualisiert Index und Log. Fragen werden direkt aus dem Wiki beantwortet. Der Lint prüft auf kaputte Links, verwaiste Seiten und Frontmatter-Probleme. Das Wiki wächst in wiki/.

Prinzip

raw/                          wiki/
┌─────────────────┐           ┌─────────────────────────┐
│ Artikel.pdf     │           │ sources/artikel.md      │
│ Notizen.md      │  → LLM →  │ concepts/thema-x.md     │
│ Wikipedia.txt   │           │ entities/person-y.md    │
│ LinkedIn.posts  │           │ index.md · log.md       │
└─────────────────┘           └─────────────────────────┘
  rein damit.                   strukturiert, verlinkt,
                                validiert, plausibilisiert.

Du wirfst rohe, ungefilterte Inhalte rein. Artikel, PDFs, Notizen, Copy-Paste aus dem Web. Das System zerlegt alles automatisch in Wissensbausteine, erkennt Konzepte und Entitäten, verlinkt sie untereinander, prüft auf Duplikate und Widersprüche und reichert dein Second Brain mit jedem neuen Input an. Du denkst und kuratierst. Das Modell organisiert, destilliert und pflegt.

Der Destillierungsvorgang im Detail :

Der gesamte Vorgang wird weitgehend autonom durch den AI-Agenten ausgeführt. Der User gibt lediglich rohe Inhalte ein und greift nur dann ein, wenn Widersprüche erkannt werden, um eine Entscheidung zu treffen.

flowchart TD
    A["👤 Quelle: PDF Markdown URL Text"] --> B[Quelle lesen und Kernerkenntnisse extrahieren]
    B --> C{Duplikat-Check}
    C -->|Neues Wissen| D[Neue Seite anlegen]
    C -->|Delta erkannt| E[In bestehende Seite mergen]
    C -->|Bereits vorhanden| F[Ueberspringen]
    D --> G[Quellzusammenfassung erstellen]
    E --> G
    F --> G
    G --> H[Konzepte und Entitaeten extrahieren]
    H --> I[Wikilinks zwischen allen Seiten setzen]
    I --> J[Index und Overview aktualisieren]
    J --> K{Widerspruchs-Check}
    K -->|Konflikt| L["👤 User entscheidet"]
    K -->|Kein Konflikt| M[Vorgang im Log protokollieren]
    L --> M
Loading

Was es ist

Eine Verzeichnisstruktur (wiki/, raw/) und ein Prompt (AGENTS.md). Drei Operationen:

  1. Ingest (Neues Wissen aufnehmen)
  2. Query (Frage beantworten)
  3. Lint (Health Check).

Das LLM erstellt Quellzusammenfassungen, Konzeptseiten, Entitäten, Querverweise, Index und Log. Duplikat-Erkennung, Delta-Merge und Widerspruchs-Check sind im Prompt definiert.

Was es nicht ist

Kein RAG-System. Wissen wird kompiliert, nicht bei jeder Frage gesucht. Kein SaaS. Alles liegt lokal als .md-Dateien. Nicht an ein Modell gebunden. Funktioniert mit Claude, GPT, Gemma, LLaMA oder was auch immer Markdown versteht.

Struktur

AGENTS.md          ← Der Prompt: definiert Rollen, Workflows, Konventionen
raw/               ← Deine Quellen (unveränderlich)
wiki/              ← Vom LLM generiert und gepflegt
  index.md         ← Inhaltsverzeichnis
  overview.md      ← Aktueller Stand
  log.md           ← Chronologisches Protokoll
  sources/         ← Quellzusammenfassungen
  concepts/        ← Konzeptseiten
  entities/        ← Personen, Orte, Organisationen
  projects/        ← Projektspezifische Ideen und Vorhaben (kein finales Wissen, sondern laufende Pläne)
scripts/
  lint-wiki.py     ← Gesundheitscheck (kaputte Links, verwaiste Seiten)

Obsidian (optional)

Das Wiki ist Obsidian-kompatibel. [[Wikilinks]], YAML-Frontmatter und Graph-Ansicht funktionieren out of the box. Obsidian ist nicht nötig, macht aber das Lesen und Navigieren deutlich angenehmer.

Einrichtung in 4 Schritten:

  1. Obsidian herunterladen und installieren: obsidian.md/download (kostenlos, Windows / macOS / Linux)
  2. Obsidian starten → beim Startbildschirm „Open folder as vault" wählen → das Repo-Verzeichnis (secondbrain/) auswählen.
  3. Wiki durchstöbern: Im Datei-Explorer links die Dateien unter wiki/ öffnen. Wikilinks sind klickbar.
  4. Graph-Ansicht öffnen: Ctrl+G (macOS: Cmd+G) oder über die Kommando-Palette (Ctrl+P → „Graph view"). Du siehst sofort das Wissensnetz deines Second Brains, alle Seiten als Knoten, alle Wikilinks als Verbindungen.

Tipp: Unter Settings → Files & Links die Option „Detect all file extensions" aktivieren, damit auch PDFs in raw/ sichtbar sind.

Web Clipper (optional)

Mit dem Obsidian Web Clipper können Webseiten direkt beim Surfen als Markdown in den raw/ Ordner gespeichert und anschließend vom LLM ingestiert werden.

  1. Plugin installieren: Chrome · Firefox · Edge · Safari
  2. In den Clipper-Einstellungen den Vault auf das Repo und den Zielordner auf raw/ setzen.
  3. Beim Surfen auf das Clipper-Icon klicken. Die Seite wird als Markdown in raw/ abgelegt.
  4. Dem LLM sagen: Ingeste raw/meine-webseite.md

Voraussetzung: Obsidian v1.7.2+ · GitHub

Beispiel Use Case: Mein Skillset

Wirf deinen Lebenslauf als PDF, deine persönliche Website oder beides in raw/. Das LLM zerlegt alles automatisch in Entitäten (Arbeitgeber, Projekte), Konzepte (Skills, Technologien) und Quellen.

Ingeste raw/lebenslauf.pdf
Ingeste raw/meine-website.md

Ab jetzt ist dein berufliches Wissen strukturiert und abfragbar. Neue Erfahrungen lassen sich jederzeit punktuell ergänzen:

Füge folgendes Projekt hinzu: "Migration einer Monolith-Architektur zu Microservices bei Firma X, 2025, Kotlin, AWS"

Das Wiki wächst mit jedem Eintrag. Und weil alles strukturiert vorliegt, kann das LLM daraus jederzeit neue Artefakte generieren:

Erstelle einen aktuellen Lebenslauf als Markdown mit Fokus auf Cloud-Projekte
Schreibe eine Projektliste für meine Website, sortiert nach Technologie

Das Second Brain vergisst nichts, hält alles verlinkt und liefert auf Anfrage genau den Ausschnitt, den du brauchst:

Was habe ich zwischen 2012 und 2018 beruflich gemacht?
In welchen Projekten habe ich Kafka verwendet?

Weitere Use Cases

Das Second Brain ist nicht auf ein Thema beschränkt. Alles, was sich als Wissen strukturieren lässt, passt rein:

Use Case So geht's
Schreibstil für LinkedIn / X Eigene Beiträge und Favoriten ingesten. Das LLM lernt deinen Ton und kann neue Posts in deinem Stil entwerfen.
Steuern und Finanzen Steuerrichtlinien, Finanzamt-Dokumente und Steuertipps einspeisen. Bei der nächsten Steuererklärung einfach fragen: „Kann ich das Arbeitszimmer absetzen?"
Kochen und Ernährung Lieblingsrezepte, Ernährungspläne und Lebensmittelwissen sammeln. „Was kann ich mit Süßkartoffeln und Kichererbsen kochen?"
Reiseplanung Reiseführer, Blogposts und persönliche Reisenotizen ingesten. Das Wiki wird zum personalisierten Reiseguide.
Lernen und Studium Vorlesungsskripte, Paper und Buchnotizen einspeisen. Vor der Prüfung fragen: „Fasse mir Kapitel 5 zusammen."
Gesundheit und Fitness Trainingspläne, Arztberichte und Gesundheitsartikel sammeln. „Welche Übungen helfen bei Rückenschmerzen?"
Tech-Radar Blogartikel, Release Notes und Konferenz-Talks zu neuen Technologien ingesten. Immer wissen, was sich in deinem Stack tut.

Voraussetzungen

  • Ein LLM-Agent mit Dateizugriff (z.B. GitHub Copilot CLI, Claude Code, Cursor, Windsurf …)
  • Python 3 für scripts/lint-wiki.py (optional)
  • AGENTS.md enthält den System-Prompt. Je nach Agent muss die Datei ggf. anders heißen oder explizit übergeben werden. Beispiel: Für Claude Code in CLAUDE.md umbenennen oder den Inhalt direkt als Context mitgeben.

Lizenz

MIT

About

Stell dir vor, du hättest ein zusätzliches digitales Gehirn, das in vielen Aufgaben deutlich leistungsfähiger ist als dein primäres und dich dadurch absolut unschlagbar macht. Das ist das Second Brain!

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages