De amateur die een Erdős-probleem oploste met ChatGPT – en waarom dat academici meer bedreigt dan ze toegeven

6 min read · 1,397 words

In maart 2024 zat een wiskundig hobbyist achter een laptop in zijn woonkamer. Geen universiteit. Geen faculteitspositie. Geen toegang tot de informele netwerken waar onopgeloste problemen worden besproken tijdens koffie na colloquia. Hij had ChatGPT, een basis begrip van grafentheorie, en een probleem dat wiskundigen sinds de jaren zestig hadden veronachtzaamd — niet omdat het onbelangrijk was, maar omdat het vastzat tussen triviaal en onoplosbaar.

Hij loste het op.

De reflex van de academische wereld was voorspelbaar: eerst twijfel, dan technische controle, dan een ongemakkelijke erkenning. Maar de werkelijke spanning zit niet in de validatie van het bewijs. Die kwam. De spanning zit in wat deze oplossing onthult over de verschuivende infrastructuur van expertise zelf — en over wie er nog toegang toe heeft.

Wat academici werkelijk vrezen is niet de wiskunde, maar de toegang

Het verhaal wordt verteld als een curiositeit. Amateur gebruikt AI, lost oud probleem op, academici controleren het werk, bewijs houdt stand. Applaus voor iedereen. Maar datFramewerk mist de kern. Dit gaat niet over een individu die de verwachtingen overtreft. Het gaat over de plotselinge erosie van institutionele barrières die decennialang hebben bepaald wie überhaupt aan bepaalde vragen mocht werken.

Wiskundige problemen vereisen geen laboratoria. Geen speciale apparatuur. Alleen tijd, training en toegang tot een netwerk dat je vertelt welke problemen er nog openstaan. De ChatGPT Erdős problem amateur mathematician had geen van die dingen — behalve het laatste, en dat kreeg hij van een taalmodel. Het model fungeerde niet als rekenaar of bewijsmachine. Het fungeerde als collega. Als bibliotheek. Als seminar waar je om drie uur ’s nachts binnen kon lopen en vragen kon stellen zonder dat iemand zijn wenkbrauwen fronste.

Academische instellingen hebben zich altijd beschermd door kennisstromen te controleren. Niet door informatie bewust achter te houden, maar door de sociale infrastuctuur van expertise te monopoliseren. Wie weet wat er nog onopgelost is? Wie weet welke technieken relevant zijn geworden? Wie weet wanneer een probleem rijp is voor een nieuwe aanpak? Die vragen werden beantwoord in kamers waar je alleen binnen kwam met de juiste diploma’s en aanbevelingsbrieven.

ChatGPT verandert die economie.

Het Erdős-probleem was geen anomalie — het was een voorbode

Paul Erdős stelde duizenden wiskundige vragen tijdens zijn leven. Sommige waren diep. Andere waren puzzels. Het probleem dat de amateur mathematician aanpakte met ChatGPT behoorde tot de tweede categorie — een vraag over grafenstructuren die technisch precies genoeg was om decennia onopgelost te blijven, maar niet sexy genoeg om toptalent aan te trekken. Het hing in een vreemd niemandsland tussen onderzoek en folklore.

Dat is precies het type probleem waar taalmodellen excelleren. Niet de Fields Medal-kandidaten. Niet de problemen waar reputaties op worden gebouwd. De middencategorie waar technische precisie samenkomt met gebrek aan prestige. De problemen die iedereen kent maar niemand prioriteit geeft.

De amateur benaderde het systematisch. Hij gebruikte ChatGPT om verwante literatuur te identificeren, technieken te verkennen die in aanpalende domeinen waren ontwikkeld, en hypothesen te testen voordat hij volledige bewijzen construeerde. Het model maakte fouten — natuurlijk maakte het fouten — maar het verschafte een iteratieve lus die voorheen alleen beschikbaar was voor mensen binnen instellingen. Het verlaagde de activeringsenergie van wiskundig onderzoek van jaren tot maanden.

“De technische vaardigheden waren er altijd. Wat ontbrak was de sociale infrastructuur om te weten waar die vaardigheden toe te passen,” — een hoogleraar wiskunde die het bewijs heeft gereviewd

Acceptatie kwam langzaam. Eerst skepticisme over AI-gegenereerde wiskunde. Dan controle van elke stap. Dan erkenning dat het bewijs solide was — niet elegant, niet het soort werk dat prijzen wint, maar correct. En daarmee kwam de ongemakkelijke vraag: als dit kon gebeuren met een Erdős-probleem, wat houdt dan de volgende tegen?

Commerciële implicaties zijn al zichtbaar in onderzoekslabs

De verschuiving raakt niet alleen academici. Bedrijven die afhankelijk zijn van diepgaande technische expertise kijken naar dit patroon en heroverwegen hun wervingsstrategieën. Als een hobbyist met ChatGPT een 60 jaar oud wiskundig probleem kan oplossen, wat betekent dat voor organisaties die PhD’s inhuren om problemen op te lossen die misschien minder complex zijn?

DeepMind en OpenAI zijn al bezig met het formaliseren van wiskunde — het vertalen van bewijzen naar machineverifieerbare code. AlphaProof van Google DeepMind haalde onlangs een zilveren medaille-niveau op de International Mathematical Olympiad. Dat werk was gericht op competitieproblemen, maar de infrastructuur die het mogelijk maakt is dezelfde die amateurs toegang geeft tot onderzoeksvragen.

De commerciële impact ontvouwt zich in drie fasen:

Fase Timeframe Verschuiving Wie verliest
Toegankelijkheid Nu—2025 Hobbyisten krijgen toegang tot onderzoeksvragen via taalmodellen Poortwachters van onopgeloste problemen
Validatie 2025—2027 Formele verificatietools reduceren reviewtijd van maanden naar dagen Peer review als bottleneck en prestigemechanisme
Productie 2027—2030 AI-systemen genereren en verifiëren bewijzen sneller dan mensen ze kunnen lezen Wiskundigen wier waarde zit in technische executie, niet conceptuele doorbraken

Bedrijven als Anthropic investeren zwaar in reasoning-capaciteiten. Niet voor chatbots. Voor systemen die technische problemen kunnen aanpakken zonder menselijke tussenkomst bij elke stap. De ChatGPT Erdős problem amateur mathematician-case is een proof of concept voor een bredere verschuiving: AI als infrastructuur voor gedistribueerde expertise.

Wat dit betekent voor wie wiskunde doet — en wie het mag doen

De pedagogische implicaties zijn brutaal. Als toegang tot onderzoeksvragen niet langer een functie is van institutionele affiliatie, wat is dan de waarde van een PhD-programma dat voornamelijk socialisatie biedt? Wat gebeurt er met de financieringsmodellen van universiteiten wanneer doorbraken niet langer correleren met faculteitsposities?

Sommige wiskundigen beweren dat formele training onvervangbaar blijft. Ze hebben gelijk — voor bepaalde soorten problemen. Diepe conceptuele doorbraken vereisen nog steeds jaren van onderdompeling. Maar het middengebied — de technische problemen die expertise vereisen maar geen genialiteit — dat gebied wordt snel gedemocratiseerd.

Voor onderzoekers betekent dit een heroriëntatie. Waarde ligt niet langer in het kunnen uitvoeren van technische stappen die een model kan repliceren. Waarde ligt in probleemherkenning, in het stellen van de juiste vragen, in het identificeren van verbindingen tussen domeinen die nog niet formeel zijn gekarteerd. Het curatorschap van onderzoeksvragen wordt waardevoller dan hun oplossing.

Voor instellingen betekent dit een crisis van legitimiteit. Als de ChatGPT Erdős problem amateur mathematician kon doen wat hij deed zonder toegang tot de universitaire infrastructuur, waarom zou de volgende generatie dan decennia investeren in het doorlopen van diezelfde infrastructuur? Het antwoord kan niet alleen institutionele inertie zijn.

Waarom academische acceptatie zo langzaam gaat — en waarom dat niet zal duren

Validatie van het bewijs duurde maanden. Niet omdat de wiskunde ondoorgrondelijk complex was. Omdat het reviewproces niet was ontworpen voor werk dat buiten de gebruikelijke kanalen ontstond. Geen institutionele affiliatie. Geen co-auteurs met gevestigde reputaties. Geen voorgeschiedenis van gepubliceerd werk.

Peer review functioneert op vertrouwen. Niet blind vertrouwen, maar het soort vertrouwen dat wordt opgebouwd door reputatie, door eerdere bijdragen, door signalen dat iemand deel uitmaakt van de gemeenschap. Outsiders moeten hogere bewijslasten overwinnen — niet omdat hun werk slechter is, maar omdat de sociale mechanismen van validatie niet op hen zijn afgestemd.

Maar die mechanismen zijn gebouwd voor een wereld waarin expertise schaars en moeilijk te verifiëren was. Formele verificatietools veranderen dat. Bewijzen kunnen machinaal worden gecontroleerd. De sociale rituelen van peer review — noodzakelijk toen menselijk oordeel het enige verificatiemechanisme was — worden steeds meer performatief.

Jongere wiskundigen zien dit. Ze gebruiken Lean, Coq, en andere proof assistants. Ze delen werk op arXiv voordat het wordt ingediend bij tijdschriften. Ze bouwen reputatie via code en publieke verificatie, niet via aanbevelingsbrieven van adviseurs. De oude bewakers zien dit als een bedreiging voor standaarden. De nieuwe garde ziet het als het elimineren van arbitraire barrières.

FetchLogic Take

Binnen 24 maanden zal een AI-systeem een open probleem oplossen dat door professionele wiskundigen als genuinely difficult wordt beschouwd — niet een 60 jaar oude curiositeit, maar iets op de Polymath-lijst of een actief onderzoeksfront. Het bewijs zal formeel worden geverifieerd voordat een mens het volledig heeft gelezen. En de discussie zal niet gaan over of het correct is, maar over of we het ‘ontdekking’ moeten noemen wanneer de doorbraak kwam van een systeem dat patronen aggregeerde in plaats van inzicht te tonen. De ChatGPT Erdős problem amateur mathematician was de eerste scheur. De volgende zal een scheur in de hele muur zijn. Universiteiten die hun legitimiteit baseren op poortwachterij in plaats van op het voortbrengen van conceptuele sprongen zullen tegen 2027 in een existentiële financieringskrisis zitten. De instellingen die overleven zullen die welke herdefiniëren wat het betekent om expertise te verspreiden in een wereld waarin toegang tot vragen even waardevol is geworden als de vaardigheid om ze te beantwoorden.

Leave a Comment

We use cookies to personalise content and ads. Privacy Policy