Lærdomme fra et forsøg på at diskutere med en AI-skeptiker Episoden startede med et politisk meme, jeg postede: Donald Trump og Benjamin Netanyahu i orange fængselsdragter, siddende på en køjeseng under et varmt, nostalgisk juleoverlay med teksten “All I Want for Christmas”. Den visuelle ironi var øjeblikkelig og skarp. At skabe det krævede bevidste omvej. Nutidens billedgenereringsmodeller har både politiske sikkerhedsforanstaltninger og tekniske begrænsninger i sammenhæng: - Grok tillader karikaturer af prominente personer, men fejler konsekvent i at producere pålidelig overlagt tekst. - ChatGPT er fremragende til at generere dekorativ festlig tekst som “All I Want for Christmas”, men dets sikkerhedsmekanismer nægter prompts, der viser levende politiske ledere i fængselsmiljøer. Ingen enkelt model kunne producere det komplette billede. De modstridende elementer — ladet politisk satire kombineret med sentimental julestemning — udløser afvisningsmekanismer eller sammenhængsfejl. Store sprogmodeller (LLM’er) er simpelthen ude af stand til at syntetisere sådanne konceptuelt modsatrettede komponenter i ét sammenhængende output. Jeg genererede de to elementer separat, derefter fusionerede og redigerede jeg dem manuelt i GIMP. Den endelige komposit var utvetydigt menneskeskabt: min koncept, mit valg af komponenter, min samling og justeringer. Uden disse værktøjer ville satiren være forblevet fanget i mit hoved eller være kommet ud som grove pindefigurer — frataget al visuel slagkraft. Nogen rapporterede billedet som “AI-genereret”. Dagen efter indførte serveren en ny regel, der forbød generativt AI-indhold. Denne regel — og memet, der udløste den — inspirerede mig direkte til at skrive og udgive essayet “Højdimensional tænkning og serialiseringsbyrden: Hvorfor LLM’er betyder noget for neurodivergent kommunikation”. Jeg håbede, det ville fremme refleksion over, hvordan disse værktøjer fungerer som kognitive og kreative tilpasninger. I stedet blev det til en ret akavet udveksling med administratoren. Skeptikerens holdning og udvekslingen Administratoren argumenterede for, at LLM’er ikke udvikles til menneskers gavn, men fremmer ressourcespild og militarisering. Han nævnte energiforbrug, militære bånd, modelkollaps, hallucinationer og risikoen for et “dødt internet”. Han indrømmede, at han kun havde skimmet essayet, og at han ejede en kraftfuld gaming-workstation, der kunne køre avancerede lokale LLM’er til privat fornøjelse, med adgang til endnu større modeller via en ven. Flere modsigelser dukkede op: - Mit arbejde foregår på en lavenergisk, reparerbar Raspberry Pi 5 (5–15 W) med delte cloud-instanser. Hans lokale setup forbruger langt mere dedikeret energi og hardware. - Den hardware, han bruger til at “lege” med kraftfulde LLM’er lokalt, kommer fra firmaer (Intel, AMD, NVIDIA) med milliarder i direkte DoD-kontrakter. Mest slående var, at personen, der håndhævede forbuddet for at beskytte autenticitet, afviste en person, der aktivt stresstester LLM’er for faktuel og geopolitisk bias (se mine offentlige audits af Grok og ChatGPT). Hawking-analogien og administratorens egne ord Administratoren identificerede sig som neurodivergent og anerkendte AI’s potentiale som assisterende teknologi. Han roste realtids-undertekstbriller til synshandicappede som “virkelig fede”, men insisterede på, at “at have en maskine skrive essays og tegne billeder er noget andet”. Han tilføjede: “Neurodivergente mennesker kan gøre disse ting, mange har overvundet barrierer for at udvikle disse færdigheder.” Han beskrev også sin egen erfaring med LLM’er: “Jo mere jeg allerede ved om et emne, jo mindre har jeg brug for AI. Jo mindre jeg ved om et emne, jo mindre er jeg i stand til at opdage hallucinationer og rette dem.” Disse udsagn afslører en dyb asymmetri i bedømmelsen af tilpasninger. Forestil dig at anvende samme logik på Stephen Hawking: “Vi anerkender, at en talesyntetisator kunne hjælpe dig med at kommunikere hurtigere, men vi foretrækker, at du prøver hårdere med din naturlige stemme. Mange mennesker med motorneuronsygdom har overvundet barrierer for at tale tydeligt — du bør også udvikle disse færdigheder. Maskinen gør noget andet end ægte tale.” Eller fra hans egen perspektiv på faktuel nøjagtighed: “Jo mere Hawking allerede ved om kosmologi, jo mindre har han brug for syntetisatoren. Jo mindre han ved, jo mindre er han i stand til at opdage fejl i maskinens stemme og rette dem.” Ingen ville acceptere dette. Vi forstod, at Hawkings talesyntetisator ikke var en krykke eller fortynding — det var den essentielle bro, der tillod hans ekstraordinære sind at dele sin fulde dybde uden uoverstigelige fysiske barrierer. Administratorens komfort med lineær, menneske-struktureret prosa afspejler en kognitiv stil, der stemmer bedre overens med neurotypiske forventninger. Min profil er omvendt: faktuel og logisk dybde kommer naturligt (som at udvikle en flersproget publiceringsplatform helt selv), men produktionen af struktureret, tilgængelig prosa til menneskeligt publikum har altid været barrieren — præcis hvad essayet beskriver. At acceptere undertekstbriller eller alt-tekst som legitime tilpasninger, mens man afviser LLM-strukturering for kognitiv divergens, er at trække en vilkårlig grænse. Mastodon og det bredere Fediverse praler ofte af inklusivitet. Alligevel indfører dette nye porte: visse tilpasninger er velkomne; andre skal overvindes gennem individuelt arbejde. Historiske ekkoer: Modstand mod transformative værktøjer Det blanket afvisning af offentlig brug af generativ AI ekkoer et gentagende mønster gennem teknologihistorien. I det tidlige 1800-tals England knuste dygtige vævere kendt som ludditer mekaniserede væve, der truede deres håndværk og levebrød. Gaslygter i byerne modsatte sig Edisons glødepære af frygt for forældelse. Kuskere, staldkarle og hesteavlere modsatte sig bilen som en eksistentiel trussel mod deres livsform. Professionelle skribenter og tegner så kopimaskinen med alarm, idet de troede, den ville devaluere omhyggeligt håndarbejde. Sættere og trykkere kæmpede mod computeriseret sætning. I hvert tilfælde stammede modstanden fra reel frygt: ny teknologi gjorde de færdigheder, de var stolte af, forældede og udfordrede deres økonomiske roller og sociale identitet. Ændringerne føltes som devaluering af menneskeligt arbejde. Alligevel vurderer historien disse innovationer ud fra deres bredere impact: mekanisering reducerede slid og muliggjorde masseproduktion; elektrisk belysning forlængede produktive timer og forbedrede sikkerhed; biler gav personlig mobilitet; kopimaskiner demokratiserede informationsadgang; digital sætning gjorde udgivelse hurtigere og mere tilgængelig. Få ville i dag vende tilbage til gaslamper eller hestetrukne vogne bare for at bevare traditionelle job. Værktøjerne udvidede menneskelig kapacitet og deltagelse langt mere, end de formindskede den. Generativ AI — brugt som protese for kognition eller kreativitet — følger samme bane: den udsletter ikke menneskelig intention, men udvider udtryk til dem, hvis idéer har været begrænset af udførelsesbarrierer. At afvise den kategorisk risikerer at gentage luddit-impulsen — forsvare kendte processer på bekostning af bredere deltagelse. Konklusion: Hvem beslutter, hvilke tilpasninger der er acceptable? Begivenhederne fortalt i dette essay — ét rapporteret billede, ét hastigt indført forbud, én langtrukken debat — afslører mere end en lokal uenighed om teknologi. De blotlægger et langt dybere og mere fundamentalt spørgsmål: Hvem får lov til at beslutte, hvilke tilpasninger der er acceptable, og hvilke der ikke er? Skal det være de mennesker, der lever inde i den hud og hjerne, der har brug for tilpasningen — dem, der fra daglig erfaring ved, hvad der bygger bro mellem deres evner og fuld deltagelse? Eller skal det være udefrakommende, uanset hvor velmenende, der ikke deler den levede virkelighed og derfor ikke kan mærke barrierens vægt? Historien svarer gentagne gange på dette spørgsmål, og næsten altid i samme retning. Kørestole blev engang kritiseret for at fremme afhængighed; døveundervisningssystemer insisterede længe på, at børn lærte læbeaflesning og oral tale i stedet for tegnsprog. I hvert tilfælde sejrede til sidst de mennesker, der var tættest på handicappet — ikke fordi de nægtede bekymringer om omkostninger, adgang eller potentiel misbrug, men fordi de var den primære autoritet på, hvad der faktisk genoprettede deres handlefrihed og værdighed. Med store sprogmodeller og andre generative værktøjer gennemlever vi den samme cyklus igen. Mange, der vogter deres brug, oplever ikke de specifikke kognitive eller udtryksmæssige barrierer, der gør lineær strukturering, narrativ flow eller hurtig serialisering til en udmattende oversættelsesopgave til et fremmed sprog. Udefra kan “prøv bare hårdere” eller “udvikl færdigheden” lyde rimeligt. Indefra er værktøjet ikke en genvej omkring indsats; det er rampen, høreapparatet, protesen, der endelig lader tidligere indsats nå verden. Den dybeste ironi opstår, når dommerne selv identificerer sig som neurodivergente, men deres specifikke neurologi stemmer tættere overens med neurotypiske forventninger i det domæne, der bedømmes. “Jeg overvandt det på denne måde, så andre bør også” er forståeligt, men det fungerer stadig som portvogteri — det reproducerer de samme normer, vi kritiserer, når de kommer fra neurotypiske autoriteter. Et konsekvent etisk princip er på høje tid: - Personen tættest på handicappet er den primære autoritet på, hvad der muliggør deres meningsfulde deltagelse. - Ekstern kritik er legitim vedrørende kollektive skader (miljøpåvirkning, risiko for misinformation, arbejdsfordrivelse), men ikke vedrørende den interne legitimitet af selve tilpasningen. Et særligt afslørende dobbeltstandard dukker op i det udbredte krav om eksplicit oplysning af brug af generativ AI. Vi kræver ikke lignende oplysning for de fleste andre tilpasninger. Tværtimod fejrer vi aktivt teknologiske fremskridt, der gør dem usynlige: tykke briller erstattet af kontaktlinser eller refraktiv kirurgi; klodsede høreapparater minimeret til næsten usynlighed; medicin for koncentration, humør eller smerte taget privat uden fodnote eller erklæring. I disse tilfælde behandler samfundet diskret, skjult brug som fremskridt — som genoprettelse af værdighed og normalitet. Alligevel når tilpasningen udvider kognition eller udtryk, vendes scriptet: nu skal det markeres, annonceres, begrundes. Usynlighed bliver mistænkelig i stedet for ønskelig. Dette selektive krav om transparens handler ikke virkelig om at forhindre bedrag; det handler om at bevare komforten med et bestemt billede af uassisteret menneskeligt forfatterskab. Fysiske korrektioner må forsvinde; korrektioner af sindet skal forblive iøjnefaldende mærket. Hvis vi skal være konsekvente, må vi enten kræve oplysning for enhver tilpasning (et absurd og invasivt krav) eller stoppe med at udpege kognitive værktøjer til særlig granskning. Den principielle holdning — den, der respekterer autonomi og værdighed — er at tillade hver person at beslutte, hvor synlig eller usynlig deres tilpasning skal være, uden strafregler, der målretter én form for hjælp, fordi den forstyrrer eksisterende forestillinger om kreativitet og intellekt. Dette essay er ikke blot en forsvarstale for ét bestemt værktøj. Det er et forsvar for det bredere ret for handicappede og neurodivergente mennesker til at definere deres egne adgangsbehov uden at skulle retfærdiggøre dem over for dem, der aldrig har gået i deres sko. Den ret bør ikke være kontroversiel. Alligevel er den, som den foregående beretning viser, stadig.