
Waar staat jouw verzamelde kennis op dit moment? Bij mij in een Google Drive, Apple Notitities, in mapjes op mijn bureaublad, iCloud, in downloads en op nog heel veel andere plaatsen. Je weet dat je waardevol materiaal hebt verzameld. Je kunt het alleen niet terugvinden wanneer je het nodig hebt. Zeker niet als het al van langere tijd geleden is en je dus niet meer weet op welke plek dat enige documentje stond.
Dit is precies het probleem dat Tiago Forte beschreef met zijn boek Building a second brain: een extern, digitaal systeem om ideeën en informatie op te slaan, te organiseren en opnieuw te gebruiken. Ons biologische brein is er niet voor gemaakt om alles te onthouden, het is er voor gemaakt om te denken. Dus offload je de opslag naar een digitaal systeem.
Mooi idee. Alleen: in de praktijk eindigen we dan vaak zoals ik het net ook schetste, waarbij het vervolgens vrijwel onmogelijk is dit netjes te onderhouden. Het opslaan van alle bestanden lukt nog wel. Het organiseren al minder. Het daadwerkelijk synthetiseren, verbinden, destilleren, daarvan ken ik in mijn omgeving niemand die dit doet. Want dat kost heel veel tijd.
En precies dat is wat nu een stuk makkelijker kan.
De nieuwe variant: de LLM als bibliothecaris
Begin april 2026 publiceerde Andrej Karpathy, een van de meest gerespecteerde stemmen in AI, voorheen OpenAI en Tesla, een idee dat op X en GitHub als een bom insloeg. Hij beschrijft hoe hij LLM's gebruikt om zijn persoonlijke kennisbasis op te bouwen en te onderhouden. De gist (Github Notitie) die hij erbij publiceerde heeft inmiddels meer dan 5.000 stars en 4.300 forks, wat laat zien dat het veel tractie heeft gekregen.
Het idee zelf is dus niet nieuw, mensen proberen al eeuwen om een persoonlijk extern geheugen te bouwen. Wat nieuw is, is het antwoord op de vraag die al die systemen uiteindelijk doet stranden: wie doet het onderhoud?
Het antwoord is nu: de LLM.
Het verschil met ChatGPT-file-uploads
Misschien denk je: maar ik upload toch gewoon mijn documenten naar ChatGPT, Claude of NotebookLM? Dat is toch hetzelfde?
Niet helemaal. Wat de meeste AI-tools doen heet RAG (Retrieval-Augmented Generation). Je stelt een vraag, het systeem zoekt relevante stukjes in jouw documenten, en genereert een antwoord. Prima. Maar elke keer als je een vraag stelt, moet het systeem de kennis opnieuw "bij elkaar rapen". Er wordt niets opgebouwd. Stel een subtiele vraag die vijf documenten met elkaar moet verbinden, en het systeem moet elke keer opnieuw die verbindingen leggen.
Karpathy's aanpak draait dit om. In plaats van alleen te retrieven bij elke vraag, laat je de LLM incrementeel een persistente wiki opbouwen en onderhouden, een gestructureerde verzameling van markdown-bestanden die tussen jou en je ruwe bronnen staat. Als je een nieuwe bron toevoegt, indexeert de LLM die niet alleen voor later gebruik. Hij leest hem, haalt de kern eruit, en integreert die in de bestaande wiki: hij update entiteitspagina's, herziet samenvattingen, markeert waar nieuwe informatie oude claims tegenspreekt, versterkt of ondermijnt de lopende synthese.
Het verschil is cruciaal: de wiki is een compounding artefact. De kruisverwijzingen zijn er al. De tegenstrijdigheden zijn al gemarkeerd. De synthese reflecteert alles wat je tot nu toe hebt gelezen. En die wiki wordt rijker met elke bron die je toevoegt en elke vraag die je stelt.
Jij schrijft bijna nooit zelf in de wiki. Jij bent in charge van sourcen, verkennen, en de juiste vragen stellen. De LLM doet het monnikenwerk, samenvatten, kruisverwijzen, inventariseren, updaten.
Hoe het werkt: drie lagen
De architectuur is simpel en bestaat uit drie lagen. Laat je niet afschrikken door de terminologie, het zijn uiteindelijk gewoon drie mapjes op je computer.
1. Raw sources: de ruwe bronnen
Dit is jouw verzameling inputmateriaal. Artikelen, rapporten, PDF's, meeting-transcripts, podcast-notities, screenshots, afbeeldingen. Alles wat jij de moeite waard vindt om te bewaren. Deze laag is immutable, de LLM leest eruit maar verandert er nooit iets in. Dit is je single source of truth.
Praktisch: de Obsidian Web Clipper is een browserextensie waarmee je webpagina's met één klik omzet naar markdown. Dat maakt het verzamelen van online bronnen heel erg simpel.
2. De wiki: wat de LLM ervan maakt
Dit is een map met markdown-bestanden die de LLM volledig zelf beheert. Samenvattingen per bron. Pagina's per concept (bijvoorbeeld "AI Search", "GEO", "Agentic AI"). Pagina's per entiteit (een persoon, een bedrijf, een product). Een overview. Een synthesepagina. Alles met kruisverwijzingen naar elkaar.
Twee speciale bestanden helpen om overzicht te houden:
index.md is je inhoudsopgave. Elke pagina staat er, met een link en een één-zinsamenvatting. De LLM update deze op elke ingest. Als je een vraag stelt, leest hij eerst de index om te bepalen welke pagina's relevant zijn. Verrassend effectief tot ongeveer honderd bronnen en een paar honderd pagina's, je hebt geen fancy embedding-search-infrastructuur nodig.
log.md is chronologisch. Een append-only logboek van wat er wanneer is gebeurd, welke bronnen zijn ingelezen, welke vragen zijn gesteld, welke onderhoudsbeurten er zijn geweest. Handig om terug te kunnen kijken hoe je denken zich heeft ontwikkeld.
3. Het schema: de spelregels voor de LLM
Een configuratiebestand (bijvoorbeeld CLAUDE.md als je Claude Code gebruikt, of AGENTS.md voor OpenAI Codex) waarin je de LLM uitlegt hoe jouw wiki gestructureerd is, wat de conventies zijn, en welk proces hij moet volgen bij het inlezen van nieuwe bronnen, het beantwoorden van vragen, en het onderhouden van de wiki. Dit bestand maakt het verschil tussen een gedisciplineerde wiki-beheerder en een generieke chatbot die er maar wat van maakt. Jij en de LLM ontwikkelen dit bestand samen, al doende.
De drie dagelijkse operaties
In de praktijk werk je met drie werkwoorden:
Ingest. Je dropt een nieuwe bron in de raw/-map en zegt tegen de LLM: verwerk dit. De LLM leest de bron, bespreekt de kernpunten met jou, schrijft een samenvattingspagina, update de index, en raakt vervolgens alle relevante andere pagina's aan, soms tien tot vijftien tegelijk. Persoonlijk werkt het voor mij het best om bronnen één voor één toe te voegen en betrokken te blijven: ik lees de samenvatting, kijk welke pagina's zijn geüpdatet, stuur bij waar nodig. Maar je kunt ook in bulk ingesten als je tempo wilt maken.
Query. Je stelt vragen tegen je wiki. "Wat zijn de belangrijkste argumenten uit alle bronnen die ik heb verzameld over GEO?" "Waar spreken mijn bronnen elkaar tegen op het punt van agent-architectuur?" De LLM zoekt de relevante pagina's op, leest ze, en synthetiseert een antwoord met bronvermelding. Een mooi detail: goede antwoorden kun je terugarchiveren in de wiki zelf als nieuwe pagina. Zo worden je eigen verkenningen ook weer materiaal voor toekomstig gebruik. Niets verdwijnt in chathistorie.
Lint. Periodiek vraag je de LLM een health check te doen. Zoek naar tegenstrijdigheden tussen pagina's. Check welke claims inmiddels zijn achterhaald door nieuwere bronnen. Vind orphan pages zonder inbound links. Signaleer concepten die vaak worden genoemd maar geen eigen pagina hebben. Stel nieuwe vragen voor om te onderzoeken. Dit houdt de wiki gezond terwijl hij groeit.
Wat je er als individu aan hebt
Tot zover de theorie. Waar wordt het concreet?
Onderzoek en leren. Je verdiept je de komende maanden in een onderwerp, zeg, de EU AI Act, of agentic workflows in B2B-marketing, of stemrecht-hervorming. Je leest artikelen, papers, rapporten, LinkedIn-posts. Normaal verdwijnen die in een wirwar van tabs en downloads. In deze setup bouwt je wiki zich op. Aan het eind heb je geen stapel losse notities meer, maar een gestructureerd beeld: de hoofdspelers, de belangrijkste argumenten, de open discussies, de tegenstrijdigheden, en jouw evoluerende eigen positie.
Klant- of accountkennis. Je werkt voor een klant (of een dealpipeline) en verzamelt geleidelijk informatie: meeting-transcripts, e-mails, jaarverslagen, nieuwsberichten, LinkedIn-profielen van stakeholders. Je wiki wordt een levend dossier. "Wat weet ik tot nu toe over deze organisatie?" krijgt een serieus antwoord in plaats van "ergens in mijn mailbox, denk ik".
Een boek lezen. Klinkt gek, maar werkt geweldig. Je leest een non-fictieboek hoofdstuk voor hoofdstuk, en laat de LLM per hoofdstuk pagina's maken voor de belangrijkste concepten, personen, argumenten. Aan het eind heb je een begeleidende wiki, een fan-wiki voor je eigen leeservaring. Denk aan iets als Tolkien Gateway, duizenden onderling verbonden pagina's gemaakt door vrijwilligers over jaren. Dat kun je nu voor jezelf bouwen, en de LLM doet het onderhoud.
Persoonlijke reflectie. Dagboekfragmenten, podcast-aantekeningen, quotes die je raakten, reflecties na gesprekken. Verzamel ze in raw/. De LLM bouwt er geleidelijk een beeld omheen van wie je bent, wat je bezighoudt, hoe je denken zich ontwikkelt. Een spiegel die onbevangen kan observeren.
Competitive intelligence, due diligence, reisvoorbereiding, cursus-aantekeningen, hobby deep-dives. Overal waar je kennis opbouwt over langere tijd en die georganiseerd wilt hebben in plaats van verstrooid.
Wat je er als team aan hebt
Elk team, marketing, sales, product, legal, HR, produceert continu kennis. Slack-threads. Meeting-recordings. Campaign-analyses. Customer calls. Contract-wijzigingen. Product-beslissingen. Research-rapporten. Workshop-output.
In veel organisaties is de status quo dat die kennis versnipperd raakt. Er is ooit een Confluence, een SharePoint, een Notion. Maar niemand onderhoudt het. De content veroudert. Nieuwe collega's worden ingewerkt door mondelinge overdracht omdat "die pagina toch niet meer klopt". De collectieve intelligentie van het team is onbenut.
Een LLM-onderhouden team-wiki lost dit op vanuit een andere kant. De bottleneck is nooit meer het onderhoud. De LLM kan:
Wekelijks meeting-recordings samenvatten en integreren in de bestaande klant- of projectpagina's.
Slack-threads over een klant oppikken en relevante besluiten filen onder de juiste pagina.
Tegenstrijdigheden signaleren tussen wat er in één kanaal wordt afgesproken en wat er in een ander document staat.
Onboarding-pagina's voor nieuwe collega's continu up-to-date houden op basis van wat er in het team verandert.
Iemand die een complexe vraag stelt ("hoe hebben we deze klant vorig jaar benaderd?") een gesynthetiseerd antwoord geven met bronvermelding.
Met menselijke review in de loop waar dat kan. De LLM doet het grondwerk, mensen reviewen en sturen.
Voor marketingteams specifiek is dit goud waard. Een team-wiki die klantinzichten, campaign-learnings, content-performance, competitor moves en markttrends continu synthetiseert. In plaats van dat elke nieuwe campagne weer begint met "laten we eens kijken wat we deze black friday gaan doen".
Een eerlijke noot: wat werkt wel, wat niet
Het is zinnig om ook de discussie rond het idee mee te geven, want er zijn serieuze kanttekeningen op X en GitHub te lezen.
Het werkt aantoonbaar op persoonlijke en middelgrote schaal. Er zijn inmiddels tientallen open-source implementaties van mensen die het in de praktijk uitproberen en gebruiken.
Schalen naar enterprise-niveau is een ander verhaal. Meerdere critici maken een terecht punt: een LLM die zonder supervisie een wiki onderhoudt met tienduizenden pagina's gaat op een gegeven moment last krijgen van hallucinatie-compounding. De LLM baseert dan zijn zoekacties op samenvattingen die hij zelf heeft gemaakt. Als daar fouten in zitten, gaan die zich steeds verder versterken. Het realistische antwoord is: dit pattern is uitstekend voor individuen en kleine teams; voor grotere settings heb je extra structuur nodig (denk aan: explicite bronverwijzingen, confidence-scores, human-in-the-loop op cruciale checkpoints).
Het vervangt geen goed gestructureerde database. Als je juridische documenten, medische dossiers of financiële data in een markdown-wiki zet en dat als ground truth behandelt, ga je problemen krijgen. Dit systeem werkt het best als synthese- en navigatielaag bovenop betrouwbare ruwe bronnen, niet als vervanging ervan.
Je moet ermee willen werken. Een wiki groeit alleen als jij bronnen blijft toevoegen en vragen blijft stellen. Het is geen magische doos die vanzelf slimmer wordt. De LLM neemt het onderhoud uit handen, niet de curatie.
Hoe begin je vandaag?
Goed, overtuigd. Maar hoe begin je concreet, zonder dat het een weekendproject wordt waar je nooit meer uitkomt?
1. Kies een onderwerp waar je écht de diepte in wilt. Niet "alle kennis die ik ooit heb opgedaan". Wel: "wat ik de komende drie maanden leer over agentic AI", of "alles wat ik weet over klant X", of "mijn persoonlijke denken over de toekomst van marketing". Een afgebakend onderwerp voorkomt dat het een prullenbak wordt.
2. Zet twee mappen op. Eén heet raw/ (ruwe bronnen), één heet wiki/ (wat de LLM maakt). Zet ze ergens lokaal of in iCloud/Dropbox. Dit is het hele systeem. Geen database, geen server.
3. Pak een LLM-agent die met bestanden kan werken. Claude Code, OpenAI Codex, Cursor, of een vergelijkbaar tool. Deze kunnen lokaal bestanden lezen, schrijven en aanpassen. Een browser-gebaseerde chatbot werkt niet goed voor dit pattern omdat je telkens alles opnieuw moet uploaden.
4. Maak een eenvoudige CLAUDE.md (of AGENTS.md). Vertel de LLM: (a) raw/ bevat de ruwe bronnen, wijzig die nooit. (b) wiki/ is jouw werkgebied. (c) Maak altijd een samenvattingspagina per nieuwe bron. (d) Update bij elke ingest de index.md en voeg een regel toe aan log.md. (e) Gebruik Obsidian-style wiki-links ([[paginanaam]]) voor kruisverwijzingen. Meer heb je op dag één niet nodig, de rest ontwikkel je al doende.
5. Installeer Obsidian als viewer. Open diezelfde mappen in Obsidian. Nu zie je wat de LLM aan het bouwen is, inclusief de graph view die je de structuur visueel toont. Obsidian is je "IDE"; de LLM is je "programmeur"; de wiki is de "codebase".
6. Begin met één bron. Clip een artikel, dump een PDF, plak een notitie. Vraag de LLM: "lees dit, maak een samenvattingspagina, update de index". Kijk wat er gebeurt. Stuur bij.
7. Na vijf tot tien bronnen: stel je eerste échte vraag. "Wat zijn de drie belangrijkste spanningen tussen alle bronnen die ik tot nu toe heb verzameld?" En voel het verschil met een normale AI-chat.
De diepere beweging
Wat hier gebeurt is groter dan een productiviteitshack.
Vannevar Bush schreef in 1945 over de Memex, een persoonlijke, gecureerde kennisopslag met associatieve paden tussen documenten. Zijn visie was dichter bij dit systeem dan bij wat het web uiteindelijk werd: privé, actief gecureerd, met de verbindingen tussen documenten als het waardevolste element. Wat Bush niet kon oplossen was de vraag wie het onderhoud doet.
Tiago Forte benoemde vijftien jaar geleden hetzelfde probleem in zijn Second Brain-methodiek. Capture, Organize, Distill, Express. Mooi framework. Maar weer: wie destilleert er eigenlijk? In de praktijk blijven de meeste Second Brains steken bij Capture en een beetje Organize. Distill en Express worden overgeslagen omdat daar hersentijd voor nodig is die er niet is.
Het nieuwe is niet het idee van een extern geheugen. Dat is oud. Het nieuwe is dat de onderhoudskosten nu praktisch nul zijn.
En dat verandert de economie van kennismanagement. Niet alleen voor individuen die eindelijk die Second Brain krijgen waarvan ze al jaren droomden. Ook voor teams, waar een levende, onderhouden kennisbasis altijd onhaalbaar leek omdat niemand tijd had om het te doen.
Jouw taak: bronnen cureren, verzamelen, analyses sturen, de goede vragen stellen, nadenken over wat het allemaal betekent. Het werk van de LLM: al het andere.
Dat is een werkbare verdeling, waarmee jij altijd al je belangrijke kennis paraat hebt.

