Waarom ChatGPT jouw merk niet aanbeveelt, en wat je er wél aan kunt doen
PM
door Peter Minkjan · April 2026
Prompt tracking is een thermometer, geen kompas. AI Search vraagt om positionering, entiteit en bewijs, niet alleen om meer prompts.
Gepubliceerd: 7 April 2026
Verken met AI
TL;DR
Prompt tracking laat zien óf je genoemd wordt, niet waarom. AI Search is geen snellere Google: antwoorden zijn instabiel, dashboards hebben selection- en survivor bias, en echte beslissingen vallen in hele conversaties, niet in losse testprompts. Als een concurrent wél wordt aanbevolen, gaat het bijna altijd om vijf lagen: technische leesbaarheid, een scherpe entiteit met consistente associaties, intern bewijs (vergelijkingen en scenario’s), waardevolle externe aanwezigheid en extern bewijs van anderen. Begin daar, in die volgorde; gebruik trackers daarna als feedback, niet als strategie.
Inleiding
Een marketeer die ik sprak vertelde met trots dat hij nu ook 'aan GEO deed'. Binnen het bureau waar hij werkte hadden ze een prompt tracking tool aangeschaft en daar was hij flink mee aan de slag gegaan voor zijn klant: een lijst van tachtig prompts, dagelijks afgevuurd op ChatGPT, Perplexity en Gemini. Hij liet me trots het dashboard zien met de bijbehorende visibility scores.
"We scoren best wel goed op sommige prompts, gelukkig genoeg, maar op sommige specifieke prompts en onderwerpen doen we het heel slecht. Daar moeten we dus nog wat meer content over maken."
Ik vroeg: weet je ook waarom je daar slecht op scoort?
"Ja, content toch?" zei hij vertwijfeld.
Stilte.
Dat is het probleem met prompt tracking als strategie. Het meet of je genoemd wordt, niet waarom. Het toont je een uitkomst, maar vertelt je niets over de oorzaak. Zolang je dat niet weet, optimaliseer je in het donker, druk in de weer met dashboards terwijl de echte vraag onbeantwoord blijft.
Prompt tracking meet of je genoemd wordt, niet waarom. Het toont een uitkomst, maar geen oorzaak.
In dit artikel leg ik uit waarom prompt tracking geen solide basis is voor je AI Search-strategie, wat er werkelijk gebeurt als ChatGPT of andere AI-platformen jouw concurrent aanbeveelt en jou niet, en waar je wél mee moet beginnen als je wilt dat AI-tools jou vaker gaan aanbevelen.
AI Search is geen klassieke zoekmachine in een nieuw jasje
Voordat we ingaan op waarom prompt tracking tekortschiet, is het de moeite waard om even stil te staan bij wat AI Search of GEO (Generative Engine Optimization) eigenlijk is. Want de meeste meetproblemen die ik hierna beschrijf, komen voort uit één misverstand: we behandelen ChatGPT en Perplexity als een snellere Google, terwijl het fundamenteel ander (zoek)gedrag bedient.
Waar Google links geeft, geeft AI Search antwoorden. Een gemiddelde AI-prompt telt 60 woorden tegenover 3,4 woorden voor een Google-zoekopdracht. Gebruikers formuleren geen zoekterm maar een opdracht. Doordat AI voor veel mensen een beter, completer en sneller antwoord geeft dan Google, loopt het verkeer op brede informatieve zoekopdrachten drastisch terug. Veel kleine en grote websites worden hierdoor getroffen en ontvangen nu aanzienlijk minder verkeer dan een tijd terug. Zo laat onderzoek van Growtika bijvoorbeeld zien dat tien grote techpublicaties in een jaar tijd samen 65 miljoen maandelijkse Google-bezoeken zijn kwijtgeraakt, een daling van 58%. De reden: die zoekopdrachten worden nu direct beantwoord door AI. Er is simpelweg geen reden meer om door te klikken naar de sites voor het antwoord.
Waar Google links geeft, geeft AI Search antwoorden.
Google levert een lijst links om door te klikken; AI Search geeft vaak één antwoord in de interface.
Maar mensen gebruiken AI niet voor alles. Zoals we in het Search Intent Framework uitleggen en in Platform Scores concreet vergelijken hoe AI Search zich verhoudt tot Google, YouTube en andere platforms: zoeken gebeurt overal, maar overal anders. AI is sterk bij diepgaand informeren, oriënteren, analyseren en genereren. Juist in de oriënterende fase, als mensen nieuwe merken ontdekken, opties vergelijken en bepalen wat de beste keuze is voor hun specifieke situatie, wil je als merk zichtbaar zijn. Niet als link of citatie, maar als aanbeveling. AI Search heeft grote overlap met klassieke SEO, maar vraagt een andere aanpak om succesvol te zijn. En die aanpak begint niet bij het tracken van prompts.
SEO begon operationeel, werd tactisch. AI Search vraagt om merkstrategie.
SEO heeft altijd gedraaid om het begrijpen van het systeem waarbinnen je zichtbaar wilt zijn. Dat zie je duidelijk als je naar de evolutie kijkt:
Tijdperk
Niveau
Doel
Input
Mechanisme
Klassieke SEO
Operationeel
Pagina's ranken
Keywords en links
Algoritmes reverse-engineeren
Volwassen SEO
Tactisch
Intentie matchen
Zoekintentie
SERPs reverse-engineeren
AI Search (GEO)
Strategisch
Aanbevolen worden
Entiteiten en associaties
Merkassociaties opbouwen en versterken
AI Search is daarmee de eerste discipline die échte strategische keuzes vereist: voor wie ben je er echt, wat maakt jou onderscheidend, welk verhaal vertel je consistent over alle kanalen. Dat zijn vragen die thuishoren bij de CMO, niet (alleen) bij de SEO-specialist. De meeste organisaties behandelen het nog als operationele taak en beleggen het ook zo intern. Dat is precies waarom ze vastlopen.
Want daar zit meteen een valkuil. De reflex is om AI Search te benaderen zoals je klassieke SEO benadert: het systeem bestuderen via zijn output. Prompts testen, responses analyseren, patronen herkennen. Merkassociaties opbouwen en versterken lukt niet primair door het model te bestuderen via zijn output. Het lukt door te bouwen aan wat het model over je kan weten, via je site, via externe bronnen, via de consistentie van je verhaal. Prompt tracking kan later vertellen of dat werkt. Niet of je het in de basis goed aanpakt.
Toch is dat precies wat marketeers nu massaal gaan doen: prompts en hun output tracken. Daarom heten de kolommen nu "AI visibility per prompt" in plaats van "positie in Google". Voor iedereen met een SEO-achtergrond voelt dat vertrouwd. Je definieert een set vragen rond jouw merk en categorie, vuurt die periodiek af op AI-platformen, analyseert de antwoorden op merkvermeldingen en website citaties, meet welke sites worden geciteerd en zet dat in een dashboard met visibility scores en share-of-voice.
Dat gevoel van vertrouwdheid is precies het probleem. Keyword tracking werkte omdat zoekresultaten voor dezelfde zoekopdracht dagen of wekenlang grotendeels gelijk bleven. Je kon een positie verdienen en die vervolgens verdedigen. De wereld van AI-antwoorden werkt fundamenteel anders, maar de meetlogica die we erbovenop hebben gelegd, doet net alsof dat niet zo is.
Je ziet dit patroon ook terug in de adviezen die rondgaan. "Voor SEO optimaliseer je een pagina voor een zoekterm. Voor GEO optimaliseer je een alinea voor een prompt." Of: "Waar je met SEO verkeer naar je site wilt genereren, wil je nu zoveel mogelijk citaties genereren." Het klinkt concreet, maar het is dezelfde logica in een nieuw jasje. Google is vervangen door ChatGPT, de pagina door een alinea, de zoekterm door een prompt en kliks door citaties. Wat ontbreekt is de vraag die eraan voorafgaat: waarom zou een model jouw alinea überhaupt willen aanbevelen? Dat is geen kwestie van optimalisatie. Dat is een kwestie van autoriteit, positionering en vertrouwen, dingen die je niet oplost met enkel technische aanpassingen aan je content.
En dan is er nog iets dat zelden hardop gezegd wordt in de SEO-wereld: dezelfde traffic-obsessie die SEO decennialang heeft vergezeld, duikt nu op in AI Search. Screenshots van stijgende lijntjes in Ahrefs en Google Search Console waren trofeeën op social media. Nu zijn het dashboards met citation rates.
Maar SEO ging nooit over verkeer; vroeger niet, nu niet en in de toekomst zeker niet.
En het maakt echt niet uit hoe vaak je content geciteerd wordt. Het doel is om aanbevolen te worden wanneer jouw doelgroep een keuze maakt: je wilt aankoopbeslissingen beïnvloeden en daarmee omzet genereren. Laat niemand je wijsmaken dat het ooit anders was.
Correlatie is geen causaliteit
Stel: een GEO-tool laat zien dat je bij de prompt "beste tool voor [jouw categorie]" deze week wel genoemd wordt en volgende week niet meer. Wat weet je dan precies zeker?
Slechts één ding: dat voor die synthetische prompt, in die testopstelling, op dat specifieke moment de output is veranderd.
Je weet niet waarom je überhaupt genoemd werd. Welke reviews, vergelijkingsartikelen en discussies daarvoor zorgen. Of echte gebruikers deze vraag ook zo formuleren. Welke context er in hun werkelijke conversaties met de AI meespeelt. Of je bij andere, concretere vragen misschien juist heel consistent wordt aanbevolen.
Toch wordt die correlatie in de praktijk vaak verkocht als causaliteit. "Na onze GEO-optimalisatie steeg de AI-visibility binnen X weken met Y%." Terwijl een groot deel van die zichtbaarheid in werkelijkheid volgt uit jaren SEO, off-site reputatie en merkopbouw, dingen die al lang voor de GEO-tool bestonden.
Het dashboard vertelt je dát je genoemd wordt. Niet dát dit door een specifieke ingreep komt. De vraag die niemand wil beantwoorden: werd die pagina geciteerd omdat ze expert quotes, statistieken en gestructureerde opmaak had? Of had ze die kenmerken omdat het al jarenlang autoritaire content was die het overal goed doet, en AI Search die gewoon ook oppikt?
Een stijgende lijn in een dashboard is geen bewijs dat jouw ingreep de oorzaak is.
Het dashboard vertelt je dát je genoemd wordt, niet dát dit door een specifieke ingreep komt.
Wat dashboards laten zien en wat ze verzwijgen
AI-visibility-dashboards hebben een ingebouwde selection bias: ze tonen alleen wat er al zichtbaar is in de AI-output op dat moment. Daarom kom je in bepaalde markten altijd dezelfde subset van merken tegen: partijen met sterke SEO, veel externe mentions en een duidelijke categoriepositie. Niet omdat ze de beste GEO-strategie hebben, maar omdat ze een rijk merk met dito historie hebben. Die historie kun je niet inhalen door hun contentstrategie te kopiëren, en dat is zeer waarschijnlijk ook niet de beste keuze.
De prompt tracker-illusie: dashboards tonen óf je genoemd wordt, niet waarom.
Bij de toplijstjes van geciteerde bronnen speelt een verwant maar iets ander fenomeen: survivor bias. GEO-onderzoek wijst steeds opnieuw dezelfde bronnen aan als "meest geciteerd door AI": Reddit, Wikipedia, YouTube, grote publishers. Logisch, want die domineren het internet al jaren en hebben de autoriteitsstrijd van het verleden overleefd. Maar de conclusie die daaruit getrokken wordt ("je moet op Reddit zitten", "je moet in dit specifieke toplijstje komen") is opnieuw correlatie die als causaliteit wordt verkocht. Die bronnen worden veel geciteerd omdat ze al lang autoriteit hebben opgebouwd en een enorme breedte qua content hebben, niet omdat ze een geheim GEO-trucje kennen. Bovendien meet zo'n toplijstje alleen wat er al bestaat. Een ander vakblad of publicatie die jouw doelgroep ook bereikt en relevant is maar nog geen content hierover heeft, verschijnt simpelweg niet in het rapport maar kan dat wel. Het advies is daarmee per definitie achterwaarts gericht.
Agencies en specialisten die op de veel geciteerde kanalen zoals Reddit, YouTube en LinkedIn gefocust zijn, bevestigen die reflex graag. Voor je het weet verschuift er serieus budget naar "iets doen met Reddit" of "een YouTube-strategie bouwen", simpelweg omdat dat kanaal hoog in een AI-citation-rapport staat. Het probleem is niet dat Reddit, YouTube of LinkedIn onbelangrijk zijn; integendeel, in veel markten zijn het cruciale plekken waar de discussie plaatsvindt.
Het probleem is wanneer je het kanaal kiest enkel omdát een tool zegt dat het veel geciteerd wordt, en je binnen dat kanaal meteen in tactiek schiet in plaats van eerst te bepalen welke bijdrage en waarde je daar geloofwaardig kunt leveren. En dan is er nog de praktische vraag: is dat kanaal de beste keuze als je investering en impact naast elkaar legt? Organisch Reddit succesvol inzetten kost bijvoorbeeld een lange adem en vraagt om echte community-aanwezigheid. Wie dat niet heeft, koopt op zijn best wat bereik zonder autoriteit.
Het risico is dat je micro-optimaliseert op zichtbaarheid op een bepaald platform, terwijl het onderliggende probleem simpelweg is dat AI nog niet genoeg over je weet om je met vertrouwen aan te bevelen. Dat is een heel ander probleem, met een heel andere oplossing.
Je meet de losse vraag, niet de hele conversatie
Er is nog een fundamenteler probleem met prompt tracking: de prompts die je meet, zijn niet de prompts waarop beslissingen vallen. Het zijn synthetische aftreksels. Niemand gaat naar ChatGPT en stelt de vraag "Wat is de beste oplossing in branche X?", leest het antwoord en klapt zijn laptop gelukzalig dicht om bij het eerste merk dat wordt genoemd zijn bestelling te plaatsen.
Mensen voeren geen losse zoekopdrachten in bij ChatGPT. Ze voeren hele conversaties met de tool. Ze leggen hun situatie uit, delen wat ze al hebben geprobeerd, scherpen hun criteria aan en vragen dan pas om een concrete aanbeveling. Die conversatie bestaat uit een keten van berichten, context, verfijning, afweging, voordat er überhaupt een naam valt. Als je alleen die eerste of laatste vraag in een GEO-tool stopt, mis je alles wat ervoor gebeurt. Zo noemt Grow and Convert dit treffend de "invisible prompts": de context die wél het antwoord bepaalt, maar nooit in een dashboard terechtkomt en ook nooit gaat komen.
Wat je in de chat ziet, is het topje van de ijsberg; het merendeel van de context die het antwoord stuurt, blijft onzichtbaar voor prompt trackers.
Wat je meet is een kale, synthetische versie van een rijke, persoonlijke conversatie. Als jij en ik allebei dezelfde vraag aan ChatGPT stellen, krijgen we waarschijnlijk een ander antwoord. Jouw ChatGPT kent jouw gespreksgeschiedenis, context en voorkeuren. Die van mij niet. Een GEO-tool test altijd vanuit een lege, anonieme sessie. Die context bestaat simpelweg niet buiten de AI-interface zelf. En als het al een korte vraag is, neemt de tool de hele historie van jouw eerdere chats mee in zijn antwoord. Die context heeft een prompt tracker niet.
Prompt tracking is kijken door een sleutelgat. Je ziet iets echts, maar het is een klein, toevallig uitsnede van wat er werkelijk in de kamer gebeurt. En hoe vaak je er ook doorheen kijkt, het sleutelgat blijft even groot. Meer of vaker prompts tracken geeft je geen beter beeld van de kamer. Het geeft je meer kijkmomenten door hetzelfde gat.
Prompt tracking is kijken door een sleutelgat: je ziet iets echts, maar het is een klein, toevallig stuk van wat er werkelijk gebeurt.
Amanda Natividad van SparkToro liet acht moeders met exact dezelfde intentie (een basketbalcompetitie voor hun kind vinden) een prompt formuleren. Geen enkele prompt leek op elkaar: de één vroeg ChatGPT als basketbalcoach te handelen, de ander gaf alleen een postcode, weer een ander noemde de AI "Dolly" zonder haar woonplaats te noemen. In hetzelfde stuk berekende SparkToro dat de gemiddelde semantische gelijkenis tussen deze prompts slechts 0,081 was: ongeveer even weinig overlap als tussen recepten voor erwtensoep en tiramisu.
Dat maakt het structurele probleem van prompt tracking duidelijk: je kiest een handvol formuleringen die jij logisch vindt, maar die nauwelijks overlappen met hoe jouw doelgroep diezelfde vraag stelt. Juist de vragen waarbij jij het beste antwoord zou zijn, staan zelden in die set. Te specifiek om op grote schaal te genereren, te afhankelijk van echte klanttaal om te verzinnen achter een bureau.
Prompt tracking mist de context van het gesprek, de context van de gebruiker en de context van de formulering. Drie lagen die er in de praktijk allemaal toe doen, en die alle drie onzichtbaar zijn in een dashboard.
AI-antwoorden zijn geen rankings
Klassieke SEO had één groot voordeel als meetobject: posities waren relatief stabiel. "We staan op plek drie voor deze zoekterm" was een zinvolle uitspraak, want morgen stond je waarschijnlijk nog steeds op plek drie.
AI-antwoorden werken fundamenteel anders. Onderzoek van SparkToro en Gumshoe, waarbij 600 vrijwilligers twaalf verschillende prompts in totaal bijna 3000 keer afvuurden op ChatGPT, Claude en Google AI, laat zien dat er minder dan 1 op 100 kans is dat een AI-tool bij honderd runs dezelfde lijst merken teruggeeft. Voor de precieze volgorde is dat minder dan 1 op 1000, ongeacht het onderwerp. Ranking-positie in een enkel AI-antwoord is daarmee grotendeels ruis. Dat zegt meer over hoe probabilistische modellen werken dan over jouw werkelijke positie in de markt.
Zelfde type vraag, drie keer gevraagd: de volgorde van merken wisselt sterk.
Ranking-positie in een enkel AI-antwoord is grotendeels ruis. Dat zegt meer over het model dan over jouw echte positie in de markt.
Betekent dit dat je helemaal niets kunt meten? Niet helemaal. Hetzelfde SparkToro-onderzoek laat zien dat visibility percentage, hoe vaak een merk überhaupt opduikt over tientallen tot honderden runs, wél enige statistische validiteit heeft. Als een merk in 85 van de 95 antwoorden voorkomt, zegt dat iets over hoe prominent het in het corpus van het model verankerd is. Dat is een verdedigbare metric, maar wel eentje die je pas kunt berekenen met genoeg volume, en die je nog steeds niets vertelt over waaróm een merk in die positie zit. Zinvoller dan positie of sentiment is bijhouden welke topics en eigenschappen het model associeert met jouw merk: wat je daadwerkelijk vertegenwoordigt in AI-antwoorden, niet alleen hoe vaak je verschijnt.
Wat stabieler blijft dan ranking-positie, is welke merken en oplossingsrichtingen standaard terugkomen bij een bepaald soort vraag. De logische kandidatenset die een model heeft opgebouwd rond een categorie of probleem. Daar wil je deel van uitmaken. Maar dat lukt niet door prompts te tracken.
Dat brengt ons bij de vraag die de trotse marketeer uit de intro niet kon beantwoorden: waarom beveelt AI mijn merk eigenlijk niet aan?
Vijf redenen waarom ChatGPT jouw concurrent aanbeveelt en jou niet
Als ChatGPT, Perplexity of Gemini jouw concurrent noemt en jou niet, heeft dat zelden met een slimmere GEO-strategie te maken. Het is bijna altijd omdat het model van die concurrent een duidelijker en consistenter beeld heeft, over wie ze zijn, voor wie ze er zijn en waarom ze de moeite waard zijn om aan te bevelen. Dat beeld is opgebouwd uit vijf lagen die elk op de vorige voortbouwen.
1. De technische basis: kan een model je überhaupt lezen?
De eerste laag is de meest basale en tegelijkertijd de meest onderschatte. AI-modellen die live het web raadplegen leunen zwaar op dezelfde technische signalen als zoekmachines: crawlbaarheid, informatiearchitectuur, structured data, duidelijke product- en dienstpagina's.
Als jouw site cruciale informatie verstopt achter formulieren of JavaScript-labyrinten, geen heldere structuur heeft en nauwelijks duidelijke productcontext of auteursinformatie biedt, dan heeft een model simpelweg minder betrouwbare feiten om jouw merk mee te vullen. Niet omdat je slecht bent, maar omdat je moeilijk te lezen bent. Dit is saaie hygiëne, maar zonder deze laag is de rest van je AI Search-werk grotendeels theorie.
Laag 1: crawlers halen feiten uit een heldere structuur; rommelige sites verliezen signalen.
2. De entiteit: begrijpt een model wie je bent?
Technische toegankelijkheid alleen is niet genoeg. Een model moet ook begrijpen wat je bent, en dat is een stuk lastiger dan het klinkt.
AI-modellen werken met entiteiten en associaties. Een entiteit is jouw merk als herkenbaar object in het model. De associaties die het model daaraan koppelt, zoals categorieën, use cases, doelgroepen en eigenschappen, bepalen je afdruk. Hoe rijker en consistenter die afdruk, hoe groter de kans dat je bij de juiste vraag naar voren komt. Als iemand vraagt naar "de beste HR-software voor zorgorganisaties", kijkt een model welke aanbieders consistent geassocieerd worden met die specifieke combinatie van categorie, doelgroep en context.
Hier zit de diepste reden waarom veel merken niet worden aanbevolen: hun entiteit en de daaraan gekoppelde associaties zijn vaag, inconsistent of niet sterk genoeg. De website vertelt een ander verhaal dan de reviews. De productpagina's spreken een andere doelgroep aan dan de LinkedIn-posts. De cases gaan over andere sectoren dan de homepage belooft. Al die signalen samen reconstrueren het merkbeeld dat een model opbouwt. En als die signalen elk een net iets ander verhaal vertellen, ontstaat er geen stevige entiteit maar een wolk van associaties. Een vage wolk wordt niet aanbevolen.
AI baseert zijn beeld niet op jouw identiteit maar op je reputatie: wat het in het ecosysteem over je tegenkomt.
Laag 2, de entiteit: diffuse signalen versus een scherpe, herkenbare positie.
Een belangrijk onderscheid hierbij: identiteit is wat jij zegt dat je bent, bewust en intern bepaald. Reputatie is wat anderen over tijd over je hebben opgebouwd, extern en verdiend. AI baseert zijn beeld niet op jouw identiteit maar op je reputatie, op wat het in het gehele informatie-ecosysteem over je tegenkomt. Als die twee niet overeenkomen, bouwt AI een beeld op dat jij niet herkent.
De oorzaak ligt dieper dan content alleen: ghost citations. Je content haalt de drempel om als bron gebruikt te worden, maar je merknaam verschijnt niet in de aanbeveling. Je content doet het werk, je concurrent krijgt de aanbeveling. Onderzoek van Seer Interactive onder meer dan 540.000 LLM-antwoorden laat zien dat dit geen zeldzame uitzondering is. Het is een patroon dat ontstaat wanneer een model wel weet dat jouw content relevant is, maar niet sterk genoeg associeert wat jij bent en voor wie. Geciteerd worden als bron is daarmee fundamenteel iets anders dan aanbevolen worden als oplossing.
Ghost citation: jouw content wordt als bron genoemd, maar de aanbeveling is een ander merk.
Je kunt geen heldere entiteit bouwen zonder scherpe positionering. Als jouw merk probeert alles te zijn voor iedereen, breed inzetbaar, flexibel, geschikt voor elke sector, dan bouw je per definitie diffuse associaties. Het model weet dan wel dat je bestaat, maar niet wanneer je de beste keuze bent. En als een model dat niet weet, beveelt het jou niet aan.
Scherpe positionering betekent concreet: definieer voor welke doelgroepen en situaties jij aantoonbaar de beste keuze bent, durf ook te zeggen wanneer je dat niet bent (dit vinden marketingmanagers vaak nog lastiger om te zeggen), en zorg dat dit verhaal consistent terugkomt op je website, in je cases, in je externe communicatie en in wat anderen over je schrijven. Consistentie is daarmee niet enkel een marketingadvies. Het is ook een technische voorwaarde voor een sterke entiteit.
Maar een sterke entiteit claimen is één ding. Een model heeft ook bewijs nodig om die claim te kunnen ondersteunen in een aanbeveling. Dat is waar de volgende laag in beeld komt.
3. Intern bewijs: lever jij zelf de argumenten?
Een scherpe entiteit vertelt een model wie je bent. Maar een model heeft ook redenen nodig om je aan te bevelen boven anderen. Dat bewijs moet je expliciet leveren, voor mensen én voor modellen, in de vorm van vergelijkingen, alternatieven, scenario's en cases die laten zien wanneer en waarom jij de beste keuze bent.
Laag 3: na brede AI-antwoorden heb je concrete vergelijkingen, scenario's en cases nodig.
AI-tools nemen steeds meer brede oriënterende vragen over. Mensen krijgen het globale antwoord al in de AI-interface en klikken minder snel door voor algemene informatie. Waar ze wél diep in duiken, is precies die onderste helft van de funnel: vergelijkingen, alternatieven, geschiktheid voor een specifieke situatie, onderbouwd met duidelijke case studies en bewijs. Vragen als "[concurrent] vs [jij]", "[jij] voor [specifieke sector]", "is [jij] geschikt voor [concreet scenario]".
Dit type content converteert altijd al het beste, maar het heeft nu een tweede functie gekregen: het voedt AI-modellen met de nuances en scenario's die ze nodig hebben om gerichte aanbevelingen te doen. Heb je dit bewijs niet, dan heeft het model minder concrete argumenten om je aan te bevelen in specifieke situaties. De logica is sterk en sluit aan bij wat we in de praktijk zien: wie deze laag goed invult, geeft een model meer om zijn antwoord op te baseren.
4. Externe aanwezigheid met waarde: ben je aanwezig waar de conversatie plaatsvindt?
Intern bewijs op je eigen site is een goed begin, maar niet genoeg. AI-modellen zoeken naar signalen buiten jouw domein en dan gaat het niet alleen om aanwezig zijn, maar om waardevol aanwezig zijn.
Je kunt duizend posts hebben op Reddit of LinkedIn zonder dat AI je ooit aanbeveelt als oplossing, omdat geen van die posts inhoudelijk bewijs levert voor je expertise of positionering. Engagement bait en winacties tellen niet. Wat telt zijn inhoudelijke bijdragen die jou associëren met de juiste categorieën, use cases en doelgroepen. Gastartikelen in vakmedia, diepgaande bijdragen in relevante communities, podcasts waarin je je expertise deelt, content die anderen ertoe brengt jou te noemen en aan te bevelen.
Daarbij gaat het ook om de keuze van platforms. Als jouw doelgroep zich oriënteert op YouTube, in niche-forums of via podcasts, maar jij bent daar volledig afwezig, heeft AI simpelweg niets om over je te synthetiseren. Aanwezigheid op de verkeerde platforms, hoe actief ook, bouwt de verkeerde associaties op.
Laag 4: wees inhoudelijk sterk waar jouw doelgroep praat, niet alleen waar tools hoog scoren.
5. Extern bewijs: zeggen anderen het ook?
De vijfde laag is de sterkste, maar ook de moeilijkste om te sturen. AI-modellen hechten het meest aan wat onafhankelijke bronnen over je zeggen; niet wat jij zelf claimt, maar wat anderen bevestigen zonder dat jij het stuurt.
Uit onderzoek van McKinsey onder 1927 consumenten blijkt dat het eigen domein van een merk slechts 5 tot 10 procent uitmaakt van de bronnen die AI Search-platformen raadplegen. HubSpot komt tot een vergelijkbare conclusie: 92 procent van AI-mentions komt niet van je eigen content maar van externe sites die je noemen. Reviews op relevante platforms, vergelijkingsartikelen waarin je als beste optie naar voren komt, analistenrapporten die je noemen, nieuwsartikelen die je positioneren in je categorie, dit is het soort extern bewijs dat een model het vertrouwen geeft om je met een rechte rug aan te bevelen.
Laag 5, extern bewijs: AI leunt zwaar op wat anderen over je zeggen (o.a. HubSpot, McKinsey).
Dit is ook de laag die de meeste merken het meest verwaarlozen, terwijl het juist de laag is waar AI-modellen het zwaarst op leunen. Je eigen website is het fundament, maar de discovery-platformen eromheen, YouTube, Reddit, LinkedIn, vakmedia, forums, zijn de versterker. AI synthetiseert wat er in dat hele ecosysteem over je gezegd wordt. Wie op die externe platformen consistent als autoriteit wordt gepositioneerd, heeft een structureel voordeel dat moeilijk te kopiëren is met content-trucjes op de eigen site.
Dus: waarom wordt jouw merk niet aanbevolen?
Terug naar de vraag die de marketeer niet kon beantwoorden. De reden dat ChatGPT jouw concurrent aanbeveelt en jou niet, is vrijwel altijd terug te brengen tot één of meer van deze vijf punten:
Je site is moeilijk te lezen. Cruciale informatie staat verstopt, de structuur is onduidelijk, of een model kan niet goed afleiden wie je bent en wat je doet.
Je entiteit is vaag of inconsistent, er zit een kloof tussen je identiteit en je reputatie. Je merk spreekt te veel doelgroepen aan, vertelt op verschillende plekken een net iets ander verhaal, of heeft geen duidelijke categorie en use-case waar het consistent mee geassocieerd wordt. Scherpe positionering is de voorwaarde. Zonder die laag bouw je op drijfzand.
Je mist intern bewijs dat jij de beste keuze bent. Je hebt geen of nauwelijks vergelijkingen, alternatieven of scenario-specifieke content die een model de concrete argumenten geeft om je in een gerichte situatie aan te bevelen.
Je bent niet waardevol aanwezig op de plekken waar de conversatie plaatsvindt. Je doelgroep oriënteert zich op platforms waar jij afwezig bent, of je aanwezigheid levert geen inhoudelijke bijdragen die je positionering versterken.
Je externe bewijslast is dun. Anderen bevestigen niet onafhankelijk van jou dat je de beste keuze bent. Geen reviews, geen vermeldingen in vakmedia, geen externe bronnen die jou in jouw categorie positioneren.
Dit zijn ook de vijf dingen waar je mee moet beginnen, in die volgorde. Niet met een promptset van tachtig vragen.
Prompt tracking heeft zijn waarde, maar ook grote beperkingen
Dit is zeker geen pleidooi om te stoppen met prompt tracking tools. Ze kunnen zeer nuttig zijn om per topic te volgen of je zichtbaarheid in de tijd toeneemt, om te zien welke bronnen AI gebruikt als het je wél aanbeveelt, om nieuwe concurrenten of bronnen te spotten. Maar wees kritisch op hun tips en aanbevelingen die gebaseerd zijn op output reverse engineering, survivor bias en het misverstand dat LLM's deterministisch werken zoals een zoekmachine.
Gebruik LLM-trackers voor wat ze zouden moeten zijn: een feedbacklaag op een bestaande strategie. Het is geen kompas maar een thermometer. De marketeer met zijn tachtig prompts had een uitstekende thermometer gebouwd. Hij wist precies hoe hoog de koorts was. Wat hij niet wist, was wat de koorts veroorzaakte, en dát is de vraag waar je mee moet beginnen. Het antwoord ligt niet in een dashboard. Het ligt in je positionering, je entiteit, je externe aanwezigheid en de content die een model nodig heeft om je vol overtuiging aan te bieden.
Pas als dat fundament staat, vertelt een thermometer je iets nuttigs; hij geneest je koorts niet. GEO-tools meten of je aanbevelingen krijgt, maar het werk om die aanbevelingen te verdienen gebeurt daarbuiten.
Over de auteurs
Peter Minkjan
Mede-oprichter
Peter werkt sinds 2008 in de wereld van search. Wat begon met SEA en SEO groeide mee met het vak: via Facebook marketing en YouTube strategie naar een bredere focus op vindbaarheid buiten de gebaande paden van Google. Wat bleef is de fascinatie voor hoe platformen werken, en hoe dat blijft veranderen. Die fascinatie is alleen maar groter geworden nu AI het landschap fundamenteel verandert: niet alleen hoe mensen zoeken, maar hoe wij als marketeers ons werk doen.