Lessen getrokken uit een poging om te discussiëren met een AI-scepticus De episode begon met een politieke meme die ik plaatste: Donald Trump en Benjamin Netanyahu in oranje gevangenispakken, zittend op een stapelbed onder een warme, nostalgische kerstoverlay met de tekst “All I Want for Christmas.” De visuele ironie was onmiddellijk en scherp. Het maken ervan vereiste bewuste omwegen. Hedendaagse modellen voor beeldgeneratie hebben zowel beleidsbeperkingen als technische beperkingen in coherentie: - Grok staat karikaturen van prominente figuren toe, maar slaagt er consistent niet in om betrouwbare overlay-tekst te produceren. - ChatGPT blinkt uit in het genereren van decoratieve feestelijke tekst zoals “All I Want for Christmas”, maar de beveiligingen weigeren prompts die levende politieke leiders in gevangenissettings afbeelden. Geen enkel model kon het complete beeld produceren. De contradictoire elementen — geladen politieke satire gecombineerd met sentimentele feestboodschap — triggeren weigeringsmechanismen of coherentiefouten. LLM’s zijn eenvoudigweg niet in staat om zulke conceptueel tegengestelde componenten in één coherente output te synthetiseren. Ik genereerde de twee elementen apart, om ze vervolgens handmatig te combineren en te bewerken in GIMP. Het finale composiet was onmiskenbaar door mensen gemaakt: mijn concept, mijn selectie van componenten, mijn assemblage en aanpassingen. Zonder deze tools zou de satire gevangen zijn gebleven in mijn hoofd of zijn uitgekomen als ruwe stokfiguurtjes — ontdaan van alle visuele impact. Iemand meldde het beeld als “door AI gegenereerd”. De volgende dag introduceerde de server een nieuwe regel die generatieve AI-inhoud verbood. Deze regel — en de meme die hem triggerde — inspireerden me direct om het essay “Hoogdimensionale geesten en de serialisatielast: Waarom LLM’s ertoe doen voor neurodivergente communicatie” te schrijven en te publiceren. Ik hoopte dat het zou aanmoedigen tot reflectie over hoe deze tools dienen als cognitieve en creatieve hulpmiddelen. Maar het draaide uit op een nogal ongemakkelijke uitwisseling met de admin. De positie van de scepticus en de uitwisseling De admin betoogde dat LLM’s niet ontwikkeld zijn ten bate van de mens, maar verspilling van hulpbronnen en militarisering bevorderen. Hij noemde energieverbruik, militaire banden, modelinstorting, hallucinaties en het risico van een “dood internet”. Hij onthulde dat hij het essay alleen had doorgelezen en toegaf een krachtige gaming-workstation te bezitten die geavanceerde lokale LLM’s voor privérecreatie kon draaien, met toegang tot nog grotere modellen via een vriend. Er ontstonden verschillende contradicties: - Mijn werk gebeurt op een laagvermogen, repareerbare Raspberry Pi 5 (5–15 W) met gedeelde cloudinstances. Zijn lokale setup verbruikt veel meer toegewijde energie en hardware. - De hardware die hij gebruikt om te “knutselen” met krachtige LLM’s lokaal komt van bedrijven (Intel, AMD, NVIDIA) met miljarden aan directe contracten met het DoD. Het meest opvallend was dat de persoon die het verbod afdwong om authenticiteit te beschermen, iemand afwees die actief LLM’s stresstest op feitelijke en geopolitieke bias (zie mijn publieke audits van Grok en ChatGPT). De Hawking-analogie en de eigen woorden van de admin De admin identificeerde zichzelf als neurodivergent en erkende het potentieel van AI als hulpmiddel. Hij prees realtime ondertitelbrillen voor visueel beperkten als “echt cool”, maar stond erop dat “een machine essays laten schrijven en afbeeldingen laten tekenen anders is”. Hij voegde toe: “Neurodivergente mensen kunnen deze dingen doen, velen hebben barrières overwonnen om deze vaardigheden te ontwikkelen.” Hij beschreef ook zijn eigen ervaring met LLM’s: “Hoe meer ik al weet over een onderwerp, hoe minder ik AI nodig heb. Hoe minder ik weet over een onderwerp, hoe minder toegerust ik ben om hallucinaties op te merken en te corrigeren.” Deze uitspraken onthullen een diepe asymmetrie in hoe hulpmiddelen worden beoordeeld. Stel je voor dat je dezelfde logica toepast op Stephen Hawking: “We erkennen dat een stemsynthesizer je sneller zou kunnen helpen communiceren, maar we zouden liever hebben dat je harder probeert met je natuurlijke stem. Veel mensen met motorneuronziekte hebben barrières overwonnen om duidelijk te spreken — jij zou die vaardigheden ook moeten ontwikkelen. De machine doet iets anders dan echte spraak.” Of, vanuit zijn eigen perspectief op feitelijke nauwkeurigheid: “Hoe meer Hawking al weet over kosmologie, hoe minder hij de synthesizer nodig heeft. Hoe minder hij weet, hoe minder toegerust hij is om fouten in de machine-stem op te merken en te corrigeren.” Niemand zou dit accepteren. We begrepen dat Hawking’s synthesizer geen kruk of verdunning was — het was de essentiële brug die zijn buitengewone geest in staat stelde zijn volledige diepte te delen zonder onoverkomelijke fysieke barrières. De comfort van de admin met lineaire, door mensen gestructureerde proza weerspiegelt een cognitieve stijl die dichter bij neurotypische verwachtingen ligt. Mijn profiel is het omgekeerde: feitelijke en logische diepte komt natuurlijk (zoals het geheel zelf ontwikkelen van een meertalig publicatieplatform), maar het produceren van gestructureerde, toegankelijke proza voor menselijk publiek is altijd de barrière geweest — precies wat het essay beschrijft. Ondertitelbrillen of alt-tekst accepteren als legitieme hulpmiddelen terwijl LLM-structurering voor cognitieve divergentie wordt afgewezen, is een arbitraire grens trekken. Mastodon en de bredere Fediverse prijzen zich vaak om hun inclusiviteit. Toch introduceert dit nieuwe poorten: bepaalde hulpmiddelen worden verwelkomd; andere moeten worden overwonnen door individuele inspanning. Historische echo’s: Weerstand tegen transformerende tools De algemene afwijzing van publiek gebruik van generatieve AI echo’t een terugkerend patroon door de technologische geschiedenis. In het vroeg-19e-eeuwse Engeland vernielden bekwame wevers, bekend als Luddites, gemecaniseerde weefgetouwen die hun ambacht en levensonderhoud bedreigden. Gaslampaanstekers in steden verzetten zich tegen Edison’s gloeilamp, uit vrees voor veroudering. Koetsiers, stalhands en paardenfokkers verzetten zich tegen de auto als existentieel gevaar voor hun levenswijze. Professionele schrijvers en tekenaars zagen de fotokopieerapparaat met alarm, in de overtuiging dat het nauwgezet handwerk zou devalueren. Zetters en drukkers vochten tegen gecomputeriseerde zettingssystemen. In elk geval kwam de weerstand voort uit oprechte angst: nieuwe technologie maakte de vaardigheden waar ze trots op waren overbodig, en daagde hun economische rollen en sociale identiteit uit. De veranderingen voelden als devaluatie van menselijke arbeid. Toch beoordeelt de geschiedenis deze innovaties op hun bredere impact: mechanisatie verminderde sleur en maakte massaproductie mogelijk; elektrisch licht verlengde productieve uren en verbeterde veiligheid; auto’s gaven persoonlijke mobiliteit; fotokopieerapparaten democratiseerden informatie-toegang; digitale zetting maakte publiceren sneller en toegankelijker. Weinigen vandaag zouden terugkeren naar gaslampen of paardentransport alleen om traditionele banen te behouden. De tools breidden menselijke capaciteit en participatie veel meer uit dan ze verminderden. Generatieve AI - gebruikt als prothese voor cognitie of creativiteit - volgt hetzelfde traject: het roept menselijke intentie niet uit, maar breidt expressie uit naar hen wiens ideeën zijn beperkt door uitvoeringsbarrières. Het ronduit afwijzen riskeert het herhalen van de Luddite-impuls — vertrouwde processen verdedigen ten koste van bredere participatie. Conclusie: Wie beslist welke hulpmiddelen acceptabel zijn? De gebeurtenissen in dit essay — één gemeld beeld, één haastig opgelegd verbod, één langdurig debat — onthullen meer dan een lokaal meningsverschil over technologie. Ze leggen een veel diepere en fundamentelere vraag bloot: Wie beslist welke hulpmiddelen acceptabel zijn, en welke niet? Moet het de mensen zijn die leven in de huid en het brein dat het hulpmiddel nodig heeft — degenen die uit dagelijkse ervaring weten wat de kloof overbrugt tussen hun capaciteiten en volledige participatie? Of moet het buitenstaanders zijn, hoe goedbedoeld ook, die die geleefde realiteit niet delen en daarom het gewicht van de barrière niet kunnen voelen? De geschiedenis beantwoordt deze vraag herhaaldelijk, en bijna altijd in dezelfde richting. Rolstoelen werden ooit bekritiseerd omdat ze afhankelijkheid aanmoedigden; dovenonderwijssystemen stonden lang erop dat kinderen lip lezen en orale spraak leerden in plaats van gebarentaal. In elk geval zegevierden uiteindelijk de mensen het dichtst bij de beperking — niet omdat ze zorgen over kosten, toegang of potentieel misbruik ontkenden, maar omdat zij de primaire autoriteiten waren over wat hun agency en waardigheid daadwerkelijk herstelde. Met grote taalmodellen en andere generatieve tools leven we opnieuw door dezelfde cyclus. Velen die hun gebruik bewaken, ervaren niet de specifieke cognitieve of expressieve barrières die lineaire structurering, narratieve flow of snelle serialisatie voelen als een uitputtende vertalingstaak in een vreemde taal. Van buitenaf kan “gewoon harder proberen” of “de vaardigheid ontwikkelen” redelijk klinken. Van binnenuit is het tool geen shortcut rond inspanning; het is de helling, het hoortoestel, de prothese die eindelijk bestaand inspanning de wereld laat bereiken. De diepste ironie ontstaat wanneer de arbiters zichzelf identificeren als neurodivergent, maar hun specifieke neurologie dichter bij neurotypische verwachtingen ligt in het beoordeelde domein. “Ik overwon het op deze manier, dus anderen zouden dat ook moeten doen” is begrijpelijk, maar het functioneert nog steeds als poortwachterij — het repliceren van de normen die we bekritiseren wanneer ze van neurotypische autoriteiten komen. Een consistent ethisch principe is nodig: - De persoon het dichtst bij de beperking is de primaire autoriteit over wat hun betekenisvolle participatie mogelijk maakt. - Externe kritiek is legitiem op collectieve schade (milieu-impact, desinformatierisico, arbeidsverdringing), maar niet op de interne legitimiteit van het hulpmiddel zelf. Een bijzonder onthullende dubbele standaard verschijnt in de wijdverbreide eis dat gebruik van generatieve AI expliciet wordt onthuld. We eisen geen vergelijkbare onthulling voor de meeste andere hulpmiddelen. Integendeel, we vieren technologische vooruitgang die ze onzichtbaar maakt: dikke brillen vervangen door contactlenzen of refractieve chirurgie; logge hoortoestellen geminiaturiseerd tot bijna-onzichtbaarheid; medicatie voor focus, stemming of pijn privé ingenomen zonder voetnoot of disclaimer. In deze gevallen behandelt de samenleving discreet, verborgen gebruik als vooruitgang — als een herstel van waardigheid en normaliteit. Toch wanneer het hulpmiddel cognitie of expressie uitbreidt, draait het script om: nu moet het worden gemarkeerd, aangekondigd, gerechtvaardigd. Onzichtbaarheid wordt verdacht in plaats van wenselijk. Deze selectieve eis voor transparantie gaat niet echt om het voorkomen van bedrog; het gaat om het behouden van comfort met een bepaald beeld van onondersteunde menselijke auteurschap. Fysieke correcties mogen verdwijnen; correcties aan de geest moeten opvallend gemarkeerd blijven. Als we consistent willen zijn, moeten we óf onthulling eisen voor elk hulpmiddel (een absurde en invasieve eis) óf stoppen met cognitieve tools speciaal te viseren voor extra controle. De principiële positie — die autonomie en waardigheid respecteert — is om elke persoon te laten beslissen hoe zichtbaar of onzichtbaar hun hulpmiddel moet zijn, zonder straffende regels die één vorm van hulp viseren omdat het bestaande noties van creativiteit en intellect verstoort. Dit essay is niet slechts een verdediging van één specifiek tool. Het is een verdediging van het bredere recht van gehandicapte en neurodivergente mensen om hun eigen toegangsbehoeften te definiëren, zonder ze te moeten rechtvaardigen tegenover hen die nooit in hun schoenen hebben gelopen. Dat recht zou niet controversieel moeten zijn. Toch, zoals het voorgaande verslag laat zien, is het dat nog wel.