11 dec Niet de GPU’s, maar de denkers: de verborgen troef in de AI-race
The mother van alle datasets: waarom de AI-race nog lang niet beslist is
Als opvolging/afleiding van het vorige artikel over TIG heb ik deze ‘in samenwerking met mijn AI-agent’ en lectuur van John Fletcher geschreven. De afgelopen jaren is er een soort mythe ontstaan rond kunstmatige intelligentie: “Big Tech heeft alle data, alle GPU’s en alle slimme mensen. De race is al gelopen.”
Die gedachte voelt logisch. Een paar grote bedrijven hebben het internet leeggeschraapt, bouwen gigantische datacenters en brengen elk kwartaal nóg grotere modellen uit. Toch mist die redenering één cruciale factor: de volgende fase van AI wordt niet meer gewonnen met brute kracht, maar met iets veel subtielers.
We staan aan het begin van een nieuw tijdperk: dat van zelfverbeterende AI systemen die niet alleen taken uitvoeren, maar ook zelf nieuwe algoritmes ontwikkelen. En precies daar komt een verrassende zwakke plek van gecentraliseerde AI-bedrijven naar boven. De doorslaggevende grondstof in deze fase is níet de openbare kennis die al op internet staat, maar de kennis over ontdekken zelf de heuristieken, intuïties en strategieën die nu alleen in de hoofden van mensen bestaan.
Van “meer GPU’s” naar “betere algoritmes”
De eerste grote AI-golf draaide om één simpel recept: meer.
- Meer data
- Grotere modellen
- Meer compute
Zolang je alles in het groot kon opschalen, ging de curve omhoog. Maar dat model begint zijn grenzen te raken. Niet omdat de ideeën op zijn, maar omdat:
- hardware duur is en enorme hoeveelheden energie slurpt
- er praktische en fysieke limieten zitten aan hoe ver je nog kunt schalen
Daarom verschuift het zwaartepunt van de vooruitgang nu van hardware naar algoritmes:
Hoe haal je méér uit dezelfde compute, met slimmere trainingsstrategieën, betere optimalisatie, nieuwe architecturen?
In die context verschijnt een nieuwe klasse systemen: meta-optimalisatie. Dit zijn AI’s die niet alleen een taak oplossen, maar nieuwe methoden bedenken om AI’s te trainen en te optimaliseren. DeepMind’s AlphaEvolve is daar een eerste voorbeeld van: een AI die autonoom algoritmes ontwikkelt en in bepaalde domeinen al beter presteert dan menselijke topmethodes.
Dat is geen kleine stap, maar een verschuiving van niveau. We gaan van:
AI gebruiken om problemen op te lossen
naar:
AI gebruiken om AI zélf te verbeteren.
De recursive lus: als AI zichzelf gaat verbeteren
De klassieke AI-stack ziet er ruwweg zo uit:
- Onderop: Hardware
- Daarboven: Systemen & kernels (libraries, compilers, runtimes)
- Daarboven: Foundation models & architecturen
- Dan: Agents die taken uitvoeren
- Bovenaan: Applicaties die jij en ik gebruiken
Normaal stroomt de innovatie één kant op: van onder naar boven. Betere hardware → betere modellen → betere apps.
Meta-optimalisatie AI zegt: “Leuk, maar laten we de pijl omdraaien.” Deze systemen gaan:
- betere software en trainingsalgoritmes ontwerpen voor de lagen onder hen
- potentieel zelfs betere ontwerpen voor hardware voorstellen
- en uiteindelijk hun eigen kernalgoritmes optimaliseren
Dat creëert een recursieve lus:
AI verbetert algoritmes → die algoritmes maken AI weer beter → enzovoort.
In theorie kun je zo een intelligence explosion krijgen: een fase waarin één systeem een voorsprong pakt en die voorsprong zó snel vergroot dat anderen het niet meer kunnen bijhalen.
Wanneer zo’n systeem in handen is van één gesloten organisatie, krijg je een wereld waarin innovatie, kennis en macht zich extreem concentreren. Dat is “zacht uitgedrukt” ongemakkelijk voor iedereen die waarde hecht aan pluraliteit, vrijheid en eerlijke competitie.
Maar er is een belangrijke ontspannende factor: we zijn daar nog niet. Één cruciale voorwaarde voor zo’n explosieve dynamiek is nog niet vervuld.
De ontbrekende dataset: de kunst van ontdekken
Grote AI-modellen zijn getraind op vrijwel alles wat publiek beschikbaar is:
- wetenschappelijke papers
- GitHub-repos
- Wikipedia
- blogs, fora, sociale media
Daarmee kennen ze de resultaten van menselijke creativiteit. Wat ze níet kennen, is de weg ernaartoe.
Een paper vertelt: “Dit is de nieuwe methode, dit is de formule, dit is de benchmarkscore.” Maar bijna nergens staat:
- welke ideeën zijn gesneuveld onderweg
- welke intuïtieve sprong iemand maakte
- waarom een expert voelde: “dit pad is kansrijk, dit niet”
- hoe iemand zijn zoekruimte stap voor stap vernauwt
Dat geheel aan:
- heuristieken,
- vuistregels,
- mentale modellen,
- en “gut feeling”.. jaja, dit heb ik vaak 😉
Hete tacite kennis: kennis die we wél gebruiken, maar zelden expliciet opschrijven.
Het gevolg: huidige modellen proberen vaak een onbekend probleem op te lossen via een soort “raad-het-antwoord-en-verzin-dan-een-verhaal”-strategie. In plaats van een systematische methode om nieuwe concepten op te bouwen, werken ze met statistisch goed geformuleerde gissingen. Dat klinkt slim, maar is in veel echte ontdekkingsdomeinen hopeloos inefficiënt.
De stap naar échte autonome ontdekking vraagt iets anders:
De AI moet niet alleen het eindantwoord leren, maar ook het denkpad. Niet alleen de oplossing, maar het ontdekkingsproces.
En dat proces ligt nu verstopt in de hoofden van onderzoekers, ingenieurs, hackers, wiskundigen, physici, quants… verspreid over de hele wereld.
Dat is wat hier “de moeder van alle datasets” wordt genoemd: de verzameling van strategieën en denkpatronen waarmee mensen vooruitgang boeken in nog onopgeloste probleemruimtes.
Waarom Big Tech hier geen simpele voorsprong heeft
De grote platforms hebben één grote truc eindeloos herhaald: scrapen → trainen → monteren in een product.
Voor hete tacite kennis werkt dat niet. Je kunt niet:
- een whiteboard-sessie scrapen,
- een nachtelijke intuïtie indexeren,
- of 10 jaar vakmanschap uit een brein trekken zonder het brein mee te nemen.
Er is nog een dieper probleem: veel van de waardevolste ontdekkingsstrategieën zijn juist níet openbaar.
- De beste trading-modellen staan niet op GitHub.
- De meest effectieve optimalisatietrucs van bepaalde labs staan niet in papers.
- Veel know-how zit in “lab culture”, in ongeschreven regels, in trial-and-error die nooit de buitenwereld haalt.
Dat betekent:
- Big Tech heeft wel de openbare resultaten,
- maar níet automatisch het beste menselijke ontdekkingsvermogen.
En dat is geen klein detail dat is de bottleneck voor zelfverbeterende AI. Ironisch genoeg is het gebrek aan erkenning en beloning voor al die verspreide innovators niet alleen een moreel probleem, maar nu ook een strategische misser: je hebt ze nodig voor de volgende fase.
Waarom een decentraal netwerk hier logisch is
Als de sleutel tot de volgende AI-fase ligt bij decentrale, menselijke know-how, dan wordt de vraag:
Welk organisatiemodel is het beste om die kennis te activeren?
Een gecentraliseerd bedrijf heeft hier een paar structurele nadelen:
- Het kan maar een beperkte groep mensen in dienst nemen.
- Het vraagt vaak volledige disclosure van methodes in ruil voor salaris.
- Het vangt de meeste waarde zelf af, met beperkte upside voor individuele vernieuwers.
Een decentraal netwerk kan een ander spel spelen:
- Belonen op output, niet op volledige openheid Je kunt een protocol ontwerpen waarin bijdragen beoordeeld worden op:
- Wereldwijde toegang tot talent Iedereen met een goede strategie – van professor tot indie hacker – kan zijn know-how “inpluggen”:
- Ingebouwde verdediging tegen data-roof Als bijdrage en beloning via een open protocol lopen, wordt het veel moeilijker voor één speler om alles stilletjes op te slokken zonder te betalen. De regels liggen vast in het systeem.
Een concreet voorstel in die richting is The Innovation Game (TIG): een raamwerk waarin:
- algoritmische innovatie wordt gegamificeerd,
- prestaties op echte benchmarks worden gemeten,
- en beloningen automatisch worden verdeeld over de beste bijdragen.
Daarmee ontstaat een soort marktplaats voor algoritmes: zelfverbeterende AI-systemen die gevoed worden door de collectieve, maar wel verloonde, know-how van een wereldwijd netwerk.
De AI-race is geen natuurwet, maar een ontwerpkeuze
De dominante verhaallijn rondom AI is vaak fatalistisch:
“De grote spelers hebben al gewonnen, we kunnen alleen hopen dat ze zich netjes gedragen.”
Het perspectief dat hier geschetst wordt, draait dat verhaal om:
- De komst van zelfverbeterende AI maakt tacite menselijke know-how de schaarste resource.
- Die kennis is per definitie verspreid en slecht te centraliseren.
- Een slim ontworpen, decentraal protocol kan juist daar zijn kracht van maken, en sneller innoveren dan elk gesloten lab.
Met andere woorden:
De vraag is niet alleen hoe krachtig onze toekomstige AI-systemen worden, maar ook welk ecosysteem we bouwen om hun ontwikkeling te sturen.
Kiezen we voor een wereld waarin een handvol gesloten organisaties de algoritmische infrastructuur van de planeet beheert? Of bouwen we structuren waarin miljoenen mensen hun ontdekkingsvermogen kunnen inzetten, meten én terugverdienen?
Zelfverbeterende AI is onvermijdelijk. Wíe er beter van wordt – een paar silo’s, of een open netwerk van spelers – ligt nog verrassend open. De uitkomst wordt niet alleen bepaald door GPU’s en dataschuren, maar door onze bereidheid om de echte “moeder van alle datasets” te organiseren: de manier waarop mensen leren ontdekken.