
Stel je voor: het is november 2022. Je zit aan je bureau en typt een vraag in een chatvenster. “Schrijf een blogpost over duurzaam reizen.” Binnen tien seconden verschijnt er een tekst die, hoewel niet perfect, beter is dan wat veel mensen in een half uur zouden produceren. Je fronst. Je leunt achterover. Je beseft vaag dat er iets fundamenteels is verschoven, maar je kunt nog niet bevatten hoe fundamenteel.
Dat moment was de lancering van ChatGPT. Het was het startschot van wat we nu kennen als de AI-revolutie. Maar het was niet het begin van het verhaal. Dat begon meer dan tweehonderd jaar eerder, met een houten kist, een schaakbord en een slimme illusie.
Dit artikel vertelt het verhaal van kunstmatige intelligentie van de allereerste truc tot de meest recente doorbraak. Niet als droog geschiedenisoverzicht, maar als reis die laat zien hoe onvoorstelbaar snel het nu gaat. Elke keer dat je denkt “oké, nu snap ik het”, is de technologie alweer drie stappen verder. Wat een jaar geleden science fiction was, is vandaag een feature. Wat gisteren een demo was, is morgen een product.
Als je dit leest en denkt “ik loop achter”: dat is niet erg. Iedereen loopt achter. Het punt is dat je begint met bijlopen.
Deel 1: De droom (1770–1996)
De Mechanical Turk: de allereerste AI-truc
In 1770 presenteerde de Hongaarse uitvinder Wolfgang von Kempelen een machine aan het hof van keizerin Maria Theresia: een houten kast met een schaakbord erop en een pop in Ottomaanse kledij erachter. De “Mechanical Turk” kon schaken en won van bijna iedereen, inclusief Napoleon Bonaparte en Benjamin Franklin.
Het was een sensatie. Mensen geloofden echt dat deze machine kon denken. De waarheid was prozaïscher: in de kast zat een kleine, zeer bekwame menselijke schaakspeler verborgen. De Mechanical Turk was geen kunstmatige intelligentie. Het was een slimme truc.
Maar de droom die het vertegenwoordigde, een machine die kan denken als een mens, zou nooit meer verdwijnen. Het duurde alleen nog bijna twee eeuwen voordat iemand er serieus aan begon te werken.
Alan Turing: de vader van de vraag
In 1950 publiceerde de Britse wiskundige Alan Turing een paper met een ogenschijnlijk simpele vraag: Can machines think? In plaats van die vraag direct te beantwoorden, stelde hij een test voor. Als een mens via een tekstgesprek niet kan onderscheiden of hij met een mens of een machine praat, dan mag je de machine “intelligent” noemen.
De Turingtest werd het referentiepunt voor decennia aan AI-onderzoek. Het briljante ervan was dat Turing niet definieerde wat intelligentie ís, hij definieerde wanneer het er niet meer toe doet. Als het eruitziet als denken, klinkt als denken, en handelt als denken, wat maakt het dan uit of het “echt” denken is?
Turing zou in 2024 zijn 112e verjaardag hebben gevierd. Hij overleed in 1954, lang voordat zijn test ook maar in de buurt van gehaald werd. Maar zijn vraag dreef het hele vakgebied voort.
De eerste AI-winter en de lange weg
Na Turing’s provocatie brak er een golf van optimisme uit. In 1956 organiseerden onderzoekers op Dartmouth College een zomerconferentie waar de term “artificial intelligence” officieel werd geboren. De verwachting was dat machines binnen een generatie menselijk niveau zouden bereiken.
Dat gebeurde niet. De eerste decennia van AI-onderzoek werden gekenmerkt door grote beloftes en teleurstellende resultaten. Computers konden simpele logische puzzels oplossen, maar faalden jammerlijk bij alles wat met taal, beeld of gezond verstand te maken had. Overheden trokken financiering terug. Onderzoekers verloren hun baan. Dit werd de eerste “AI-winter” genoemd, een periode van desillusie die tot diep in de jaren tachtig duurde.
Deep Blue: de machine die een wereldkampioen versloeg
Op 11 mei 1997 gebeurde wat lang voor onmogelijk werd gehouden: IBM’s supercomputer Deep Blue versloeg schaakwereldkampioen Garry Kasparov in een officieel duel. Het was wereldnieuws. De voorpagina van elke krant. De machine had de mens verslagen, althans in schaak.
Achteraf gezien was Deep Blue een fascinerende misleiding. De computer was niet “intelligent” in welke betekenisvolle zin dan ook. Hij kon 200 miljoen schaakposities per seconde evalueren, maar kon geen gesprek voeren, geen grap begrijpen, geen kop koffie inschenken. Deep Blue was razendsnelle “brute force” kracht zonder begrip.
Maar net als de Mechanical Turk verschoof Deep Blue het overton window van wat machines konden. Als ze de beste schaker ter wereld konden verslaan… wat was er dan nog meer mogelijk?
Deel 2: De bouwstenen (2010–2022)
Deep learning: de stille revolutie
Terwijl het grote publiek na Deep Blue weer even vergat dat AI bestond, gebeurde er achter de schermen iets cruciaals. Onderzoekers ontdekten dat neurale netwerken losse wiskundige modellen geïnspireerd op de werking van hersenen, spectaculair goed werden als je ze met genoeg data en rekenkracht voedde.
In 2012 won een neuraal netwerk genaamd AlexNet een beeldherkenningswedstrijd met zo’n grote voorsprong op de concurrentie dat het vakgebied collectief van koers veranderde. Ineens kon een computer een kat van een hond onderscheiden niet door geprogrammeerde regels, maar door miljoenen voorbeelden te “zien.”
Dit was de deep learning-revolutie, en het legde de basis voor alles wat zou volgen. Google, Facebook, Microsoft en Amazon begonnen miljarden te investeren. De tweede AI-winter was definitief voorbij.
De Transformer: het cruciale puzzelstuk
In 2017 publiceerden onderzoekers van Google een paper met de bescheiden titel Attention Is All You Need. Het introduceerde een nieuwe architectuur voor neurale netwerken: de Transformer. De naam klonk als een Hollywoodfilm, maar de impact was reëler dan welke blockbuster dan ook.
De Transformer maakte het mogelijk om enorme hoeveelheden tekst te verwerken en er patronen in te vinden veel sneller en effectiever dan eerdere methodes. Het was het fundament waarop GPT, BERT, en later alle grote taalmodellen werden gebouwd. Zonder die paper van 2017 was er geen ChatGPT geweest.
GPT-1, GPT-2, GPT-3: steeds groter, steeds beter
OpenAI, opgericht in 2015 door onder anderen Elon Musk en Sam Altman, begon met het bouwen van steeds grotere taalmodellen op basis van de Transformer-architectuur. GPT-1 (2018) kon simpele zinnen afmaken. GPT-2 (2019) schreef al overtuigende paragrafen zo overtuigend dat OpenAI aanvankelijk weigerde het model vrij te geven uit angst voor misbruik.
GPT-3, uitgebracht in 2020, was een waterscheiding. Met 175 miljard parameters kon het essays schrijven, code genereren, vertalen en vragen beantwoorden. Ontwikkelaars begonnen er tools mee te bouwen. Maar voor het grote publiek bleef het abstract. Je moest een API aanvragen en technisch onderlegd zijn om ermee te werken.
De wereld had een vonk nodig om te zien wat er mogelijk was. Die vonk kwam op 30 november 2022.
Deel 3: De explosie (november 2022–december 2023)
ChatGPT: het moment dat alles veranderde
ChatGPT was technisch gezien niet revolutionair, het was GPT-3.5 met een chatinterface eromheen. Maar die interface maakte het verschil. Ineens kon iedereen, zonder technische kennis, een gesprek voeren met een AI. Het was alsof je internet voor het eerst ontdekte: je wist dat het bestond, maar je had geen idee hoe groot het was.
Binnen vijf dagen had ChatGPT een miljoen gebruikers. Binnen twee maanden honderd miljoen. De snelste adoptie van welke technologie dan ook in de geschiedenis. Sneller dan de iPhone. Sneller dan TikTok. Sneller dan het internet zelf.
De reactie was een mix van euforie en paniek. Studenten gebruikten het voor werkstukken. Programmeurs lieten het code schrijven. Marketeers genereerden content. Docenten ontdekten dat ze plagiaat niet meer konden detecteren. En overal klonk dezelfde vraag: “Wat betekent dit voor mijn baan?”
De AI-wapenwedloop begint
Google, dat de Transformer-architectuur nota bene zelf had uitgevonden, werd volledig verrast door het succes van ChatGPT. In maart 2023 lanceerde het haastig Google Bard. Een directe concurrent gebaseerd op hun eigen LaMDA-model. De lancering was rommelig: in een promotievideo gaf Bard een feitelijk onjuist antwoord over de James Webb-telescoop, wat Alphabet tien procent aan beurswaarde kostte.
Het was een teken van de tijden. Bedrijven die jarenlang methodisch aan AI hadden gewerkt, voelden ineens de hete adem van OpenAI in hun nek. De AI-wapenwedloop was begonnen. Microsoft investeerde miljarden in OpenAI. Google herstructureerde zijn AI-teams. Meta ging all-in op open source. Amazon, Apple, iedereen haastte zich naar de tafel.
GPT-4: de sprong naar multimodaal
In maart 2023 bracht OpenAI GPT-4 uit, en het verschil met zijn voorganger was schokkend. Het model kon niet alleen tekst verwerken, maar ook beelden interpreteren. Het scoorde in de bovenste tien procent op het Amerikaanse bar exam (de juridische beroepstoets). Het kon complexe code schrijven, wetenschappelijke papers analyseren en creatief schrijven op een niveau dat veel mensen oncomfortabel maakte.
Voor het eerst begon de Turingtest, Turing’s oude gedachte-experiment uit 1950 relevant te voelen in de echte wereld. Niet als formeel experiment, maar als dagelijkse ervaring: steeds vaker kon je niet meer zien of een tekst door een mens of een machine was geschreven.
De otter en de spaghetti: hoe we AI-voortgang meten
Terwijl taalmodellen de tekst-wereld op zijn kop zetten, maakten beeldgeneratoren een eigen evolutie door. En die evolutie werd onbedoeld gedocumenteerd door twee informele “benchmarks” die het collectieve geheugen van het internet vastlegden.
De otter van Ethan Mollick. Wharton-professor Ethan Mollick zat in 2022 in een vliegtuig met zijn tienerdochter. De wifi deed het niet. Otters waren haar lievelingsdier. Hij typte de prompt “otter on a plane using wifi” in Midjourney en postte het resultaat op X. Het werd viraal.
Vanaf dat moment herhaalde Mollick dezelfde prompt bij elke nieuwe versie van elke beeldgenerator. De resultaten vertellen het verhaal beter dan welk benchmarkrapport dan ook. In oktober 2022 produceerde Midjourney v3 een vage vlek die vaag op een otter leek. In november 2022 (v4) was het herkenbaar als een otter, maar met een raar toetsenbord en te veel vingers. In maart 2023 (v5) was het fotorealistisch. In 2024 werd het bijna ononderscheidbaar van een echte foto. Begin 2025 verklaarde Mollick de test officieel “obsolete”. Het was te makkelijk geworden voor alle beeldgeneratoren. Hij schakelde over naar video.
Will Smith en de spaghetti. In maart 2023 postte een Reddit-gebruiker een video gemaakt met ModelScope’s tekst-naar-video tool: “Will Smith eating spaghetti.” Het resultaat was hilarisch slecht. Smiths gezicht versmolt tussen frames, zijn handen veranderden in rubberen aanhangsels, en de spaghetti zweefde alsof het eigen fysica had.
De video werd een meme maar ook een meetlat. Elke keer dat er een nieuw videomodel uitkwam, was de eerste vraag: “Kan het Will Smith spaghetti laten eten?” In 2024 produceerde het Chinese MiniMax een herkenbare versie, maar het kauwen klopte niet. In mei 2025 slaagde Google’s Veo 3 bijna alleen klonken de noedels te knapperig. In oktober 2025 met Veo 3.1 was het nagenoeg ononderscheidbaar van echt. Begin 2026, met Kling 3.0, zit Will Smith aan tafel te praten terwijl hij spaghetti eet, compleet met geluid en emotie.
Van groteske vervorming naar filmkwaliteit. In minder dan drie jaar.
Deel 4: De versnelling (2024)
Het jaar dat AI leerde redeneren
Als 2023 het jaar was van “wow, dit bestaat”, dan was 2024 het jaar van “wacht, het wordt steeds beter.” De grote AI-labs brachten in rap tempo nieuwe modellen uit, elk krachtiger dan de vorige. Claude van Anthropic, Gemini van Google, Llama van Meta, de markt explodeerde.
Maar de echte verschuiving in 2024 was conceptueel. OpenAI introduceerde zijn o1-model, het eerste “reasoning model.” In plaats van direct een antwoord te geven, dacht o1 eerst na, soms honderden woorden aan interne “chain of thought”, voordat het reageerde. Het was alsof de AI voor het eerst leerde om even stil te zijn en te denken voordat het sprak.
Het verschil was merkbaar. Complexe wiskundeproblemen, logische puzzels, programmeervraagstukken. Reasoning models presteerden dramatisch beter dan hun voorgangers. Het was het begin van wat sommigen het “reasoning tijdperk” zijn gaan noemen.
AI op je bureau: van chatbot naar werktuig
Ondertussen verschoof AI van “ding waar je mee chat” naar “ding dat werk voor je doet.” GitHub Copilot hielp programmeurs code schrijven. Cursor bouwde een complete ontwikkelomgeving rondom AI. Canva integreerde beeldgeneratie. Notion kreeg AI-schrijfhulp. Elk SaaS-product dat je kende, kreeg ineens een AI-knop.
En het werd persoonlijk. Ik, iemand zonder programmeerervaring, bouwde in 2024 een complete YouTube SEO-tool met AI. Ik bouwde winterkaart.com, een functionerende website, puur door te beschrijven wat ik wilde. Geen regel code zelf geschreven. De drempel om iets te maken was niet verlaagd, hij was verdwenen.
De benchmarks bezwijken
Een veelzeggend detail uit 2024: de benchmarks waarmee we AI meten, begonnen te bezwijken. In 2023 werden MMMU, GPQA en SWE-bench geïntroduceerd om de grenzen van AI-systemen te testen. Een jaar later waren de scores op deze tests met respectievelijk 18,8, 48,9 en 67,3 procentpunten gestegen. Tests die bedoeld waren om jarenlang mee te gaan, waren binnen maanden achterhaald.
Dit is misschien het krachtigste bewijs van exponentiële vooruitgang: we kunnen niet eens snel genoeg nieuwe tests bedenken om bij te houden hoe snel AI verbetert.
Deel 5: Het kanteljaar (2025)
DeepSeek: het Sputnik-moment
Op 20 januari 2025 gebeurde iets wat niemand had zien aankomen. Het Chinese bedrijf DeepSeek, tot dan toe vrijwel onbekend in het Westen, bracht R1 uit, een reasoning model dat op de meeste benchmarks gelijkwaardig presteerde aan OpenAI’s o1. Dat op zich was al opmerkelijk. Maar het schokkende zat in de kosten: DeepSeek claimde het model te hebben getraind voor ongeveer 6 miljoen dollar. Ter vergelijking: westerse labs gaven honderden miljoenen uit aan vergelijkbare modellen.
De reactie van de markt was direct en bruut. Op maandag 27 januari verloor chipfabrikant Nvidia in één dag bijna 600 miljard dollar aan beurswaarde. Het grootste eendaagse verlies in de geschiedenis. De logica was simpel: als een Chinees lab frontier-AI kon bouwen voor een fractie van de kosten, wat was dan de waarde van al die dure GPU-clusters?
DeepSeek werd het “Sputnik-moment” van AI. Het bewees drie dingen tegelijk: China lag niet zo ver achter als gedacht, algoritmische slimheid kon hardwarebeperkingen compenseren, en de aanname dat betere AI altijd meer geld kost, was fout. Het model was bovendien open source, waardoor iedereen ermee kon werken. De hele industrie moest zijn strategie heroverwegen.
Reasoning wordt de standaard
Na DeepSeek werd 2025 het jaar waarin reasoning models de norm werden. OpenAI bracht in augustus GPT-5 uit, dat volgens velen de verschuiving van “chat-AI” naar “denk-AI” compleet maakte. Google DeepMind’s Gemini Pro won goud op de Internationale Wiskunde-olympiade. Anthropic bracht Claude Opus 4.5 uit, dat met een context window van een miljoen tokens complete boeken kon verwerken.
Reasoning models konden niet alleen wiskundeproblemen oplossen, ze begonnen ook te presteren op taken die eerder als exclusief menselijk werden beschouwd. Google DeepMind meldde dat hun Gemini Pro reasoning model had geholpen om het trainingsproces van Gemini Pro zélf te versnellen. AI die zichzelf verbetert, bescheiden verbeteringen, maar precies het type zelfverbetering waar sommige onderzoekers zowel enthousiast als bezorgd over zijn.
Van chatbot naar agent
De grootste conceptuele verschuiving van 2025 was misschien wel de overgang van “chat” naar “agent.” In plaats van alleen te antwoorden op vragen, begonnen AI-systemen zelfstandig taken uit te voeren. Dit werd “agentic AI” genoemd, en het veranderde de manier waarop we over AI nadenken fundamenteel.
In februari 2025 lanceerde Anthropic Claude Code, een tool waarmee ontwikkelaars taken konden delegeren aan Claude direct vanuit hun terminal. Claude Code kon bestanden openen, code schrijven en uitvoeren, tests draaien, en zelfs sub-agents aansturen voor specifieke deeltaken. Binnen zes maanden groeide het van een research preview naar een product met een miljard dollar aan geannualiseerde omzet en nu begin 2026 zelfs veertien miljard dollar.
Maar Claude Code was pas het begin. Overal verschenen AI-agents die niet alleen konden praten, maar ook konden doen. Agents die je e-mail konden beheren. Agents die onderzoek konden doen. Agents die code konden schrijven, testen en deployen. De grens tussen “assistent” en “collega” begon te vervagen.
De LLMs werden menselijker
Een van de meest onderschatte ontwikkelingen van 2025 was hoe menselijk taalmodellen begonnen te klinken. Niet alleen in de kwaliteit van hun tekst, dat was al goed, maar in hun vermogen om nuance, context en stijl te begrijpen.
Claude leerde om te schrijven in de toon die je wilde. Niet als generieke “professionele” of “casuele” stijl, maar afgestemd op jou. Het onthield voorkeuren uit eerdere gesprekken. Het kon een e-mail schrijven die klonk alsof jij hem had geschreven. Het kon de subtiliteiten van een interne bedrijfscultuur oppikken en ernaar handelen.
Dit was niet alleen een technische verbetering, het was een psychologische drempel die werd doorbroken. Zolang AI-tekst voelde als “AI-tekst,” kon je het negeren. Maar wanneer het ononderscheidbaar wordt van menselijke communicatie, verandert alles. Want heb jij door dat ook dit artikel voor 99% door AI is geschreven? Ik terwijl ik het minimaal aan het redigeren ben in ieder geval niet. De Turingtest, Turing’s gedachte-experiment uit 1950, werd in 2025 niet formeel gehaald, maar informeel, dagelijks, door miljoenen gebruikers.
De SaaSpocalypse
Naarmate AI-agents capabeler werden, begon er een duidelijk patroon te ontstaan. Taken waarvoor je voorheen gespecialiseerde software nodig had, projectmanagement, CRM, documentbeheer, data-analyse, konden steeds vaker door een AI-agent worden afgehandeld. Niet altijd even goed, nog niet altijd betrouwbaar, maar de richting was onmiskenbaar.
In de tech-industrie kreeg dit fenomeen een naam: de SaaSpocalypse. De vrees dat kunstmatige intelligentie, met name agentic AI, een existentiële bedreiging vormt voor de honderden miljarden dollars aan Software-as-a-Service-bedrijven die de afgelopen vijftien jaar zijn opgebouwd. Waarom betaal je voor tien verschillende abonnementen als één AI-agent dezelfde taken kan uitvoeren?
De term is bewust overdreven, niet alle software wordt morgen overbodig, maar het onderliggende punt is serieus. De waardepropositie van veel SaaS-producten verschuift. Niet de software zelf is nog de bottleneck, maar de data en de workflows eromheen. Bedrijven die dat begrijpen, overleven. Bedrijven die denken dat ze veilig zijn omdat hun software “onmisbaar” is, kunnen voor verrassingen komen te staan.
Deel 6: Nu (januari–februari 2026)
Claude Cowork: AI voor de rest van je werk
Op 12 januari 2026 lanceerde Anthropic Claude Cowork en het was alsof iemand de deur opengooide die tot dan toe alleen op een kier stond. Cowork is wat Anthropic omschrijft als “Claude Code voor de rest van je werk.” Het neemt de agentic capaciteiten van Claude Code, bestanden openen, bewerken, aanmaken, en taken zelfstandig uitvoeren en verpakt ze in een interface die geen technische kennis vereist.
Je geeft Claude toegang tot een map op je computer. Vervolgens kun je zeggen: “Sorteer mijn downloads en hernoem alles logisch.” Of: “Maak een spreadsheet van deze stapel bonnetjes.” Of: “Schrijf een eerste versie van dit rapport op basis van mijn losse notities.” Claude maakt een plan, voert het uit, en houdt je op de hoogte van de voortgang. Minder heen-en-weer chatten, meer alsof je een bericht achterlaat voor een collega.
De impact was direct voelbaar. Juridische softwarebedrijven zagen hun aandelen kelderen toen bleek dat Cowork rechtbankdossiers kon consolideren. De S&P 500 software- en services-index verloor in zes handelsdagen 830 miljard dollar aan waarde. The Motley Fool noemde Cowork “het DeepSeek-moment voor software.”
Is dat overdreven? Misschien. Cowork is nog een research preview met ruwe randjes. Maar het signaal is helder: de afstand tussen “AI kan in theorie je werk doen” en “AI doet daadwerkelijk je werk” wordt elke maand kleiner.
Het moment waarop we staan
Terwijl ik samen met Claude Opus 4.6 dit schrijf, op 13 februari 2026, is de stand van zaken als volgt. 95 procent van de professionals gebruikt AI op het werk of thuis, volgens het State of AI Report 2025. 76 procent betaalt er uit eigen zak voor. 44 procent van de Amerikaanse bedrijven betaalt voor AI-tools, in 2023 was dat nog 5 procent.
Claude Cowork is net uitgebracht op Windows, met volledige feature-pariteit met macOS. Het heeft plugins gekregen waarmee je het kunt aanpassen voor specifieke workflows en teams. Anthropic’s waardering wordt geschat op 380 miljard dollar.
En dit is pas het begin. Claude Code is in anderhalf week gebouwd, grotendeels door Claude Code zelf. AI bouwt zichzelf. Niet in de sciencefiction-zin van een machine die zichzelf bewust wordt, maar in de heel praktische zin van software die software maakt die software maakt.
Deel 7: Wat dit allemaal betekent
Het probleem met exponentiële groei
Er is een reden waarom mensen moeite hebben om te bevatten hoe snel AI zich ontwikkelt. Ons brein is gebouwd voor lineair denken. Als iets elk jaar tien procent beter wordt, kunnen we dat intuïtief volgen. Maar AI verbetert niet lineair, het verbetert exponentieel. En exponentiële groei voelt lange tijd als bijna stilstand, tot het ineens voelt als een explosie.
Bedenk dit: tussen de Mechanical Turk (1770) en Deep Blue (1997) zaten 227 jaar. Tussen Deep Blue en ChatGPT zaten 25 jaar. Tussen GPT-4 en de eerste reasoning models zat anderhalf jaar. Tussen het begin van agentic AI en een product dat de softwaremarkt deed schudden, zat minder dan een jaar.
De intervallen worden korter. De sprongen worden groter. En het tempo versnelt nog steeds.
De menselijke maat
Te midden van al deze technologische aardverschuivingen is het makkelijk om twee fouten te maken. De eerste is ontkenning: doen alsof er niets aan de hand is, omdat de technologie “nog niet perfect” is. De tweede is paniek: denken dat alles morgen verandert en dat menselijke vaardigheden waardeloos worden.
De werkelijkheid is genuanceerder. AI is ongelooflijk goed in bepaalde dingen en verrassend slecht in andere. Het kan een rapport schrijven, maar het kan niet bepalen of dat rapport de juiste strategische keuze ondersteunt. Het kan code genereren, maar het kan niet de bedrijfscultuur aanvoelen die bepaalt of een product succesvol wordt. Het kan data analyseren, maar het kan niet de politieke dynamiek in een boardroom navigeren.
Wat wel verandert, is de basisvaardigheid die van mensen wordt verwacht. Net zoals je tegenwoordig niet meer “ik kan niet autorijden” kunt zeggen in de meeste beroepen, zal “ik werk niet met AI” steeds minder acceptabel worden. Niet omdat AI je vervangt, maar omdat mensen die wél met AI werken simpelweg meer gedaan krijgen.
De vooruitblik
Als de afgelopen drie jaar iets hebben bewezen, is het dat voorspellingen over AI bijna altijd te conservatief zijn. Vrijwel niemand voorspelde ChatGPT’s explosieve adoptie. Vrijwel niemand voorspelde DeepSeek. Vrijwel niemand voorspelde dat een research preview van een AI-desktop-agent de softwaremarkt honderden miljarden zou kosten.
Wat we wél weten: de investering versnelt. De Magnificent Seven techbedrijven plannen samen 680 miljard dollar aan AI-gerelateerde kapitaaluitgaven. De modellen worden beter. De agents worden capabeler. De tools worden toegankelijker. En de grens tussen wat AI kan en wat alleen mensen kunnen, verschuift elke maand.
De vraag is niet óf AI je werk gaat veranderen. De vraag is of je erbij bent wanneer het gebeurt.
Tijdlijn: van Mechanical Turk tot Cowork
1770 — De Mechanical Turk doet alsof een machine kan schaken
1950 — Alan Turing publiceert “Computing Machinery and Intelligence” en stelt de Turingtest voor
1956 — Dartmouth-conferentie: de term “artificial intelligence” wordt geboren
1997 — IBM’s Deep Blue verslaat schaakwereldkampioen Garry Kasparov
2012 — AlexNet wint ImageNet en luidt de deep learning-revolutie in
2017 — Google publiceert “Attention Is All You Need” — de Transformer-architectuur wordt geboren
2018 — OpenAI brengt GPT-1 uit
2020 — GPT-3 (175 miljard parameters) toont de kracht van grote taalmodellen
Nov 2022 — ChatGPT lanceert en bereikt 100 miljoen gebruikers in twee maanden
Mrt 2023 — GPT-4 lanceert; Google brengt Bard uit; eerste AI-videomodellen produceren hilarisch slechte Will Smith-spaghetti
2023–2024 — Midjourney, DALL·E en Stable Diffusion maken beeldgeneratie mainstream; Ethan Mollick’s ottertest wordt te makkelijk
Sep 2024 — OpenAI introduceert o1, het eerste reasoning model
Jan 2025 — DeepSeek R1 schokt de wereld; Nvidia verliest 600 miljard in één dag
Feb 2025 — Anthropic lanceert Claude Code
Mei 2025 — Google’s Veo 3 slaagt bijna voor de Will Smith-spaghettitest; Sora 2 lanceert
Aug 2025 — OpenAI brengt GPT-5 uit
Sep 2025 — Claude krijgt persistent geheugen
Okt 2025 — Veo 3.1 maakt nagenoeg realistische video; Nvidia bereikt 5 biljoen dollar marktwaarde
Jan 2026 — Claude Cowork lanceert en wordt “het DeepSeek-moment voor software” genoemd
Feb 2026 — Cowork krijgt plugins en Windows-support; Anthropic gewaardeerd op 350 miljard dollar


