Lektionen aus dem Versuch, mit einem AI-Skeptiker zu diskutieren Der Vorfall begann mit einem politischen Meme, das ich gepostet hatte: Donald Trump und Benjamin Netanyahu in orangefarbenen Gefängnisoveralls, sitzend auf einem Etagenbett unter einem warmen, nostalgischen Weihnachtsoverlay mit der Aufschrift „All I Want for Christmas“. Die visuelle Ironie war sofort und scharf. Die Erstellung erforderte bewusste Umgehungslösungen. Aktuelle Bildgenerierungsmodelle haben sowohl Richtlinienschutzmechanismen als auch technische Kohärenzbeschränkungen: - Grok erlaubt Karikaturen prominenter Figuren, scheitert aber konsequent daran, zuverlässigen überlagerten Text zu produzieren. - ChatGPT ist hervorragend darin, dekorativen festlichen Text wie „All I Want for Christmas“ zu generieren, lehnt aber aus Schutzgründen Prompts ab, die lebende politische Führer in Gefängnisszenarien darstellen. Kein einzelnes Modell konnte das vollständige Bild erzeugen. Die widersprüchlichen Elemente – geladene politische Satire kombiniert mit sentimentaler Feiertagsbotschaft – lösen Ablehnungsmechanismen oder Kohärenzfehler aus. Große Sprachmodelle (LLMs) sind einfach nicht in der Lage, solche konzeptionell gegensätzlichen Komponenten in einer kohärenten Ausgabe zu synthetisieren. Ich generierte die beiden Elemente separat und fusionierte und bearbeitete sie dann manuell in GIMP. Das finale Komposit war zweifellos menschlich erzeugt: mein Konzept, meine Auswahl der Komponenten, meine Zusammenstellung und Anpassungen. Ohne diese Werkzeuge wäre die Satire in meinem Kopf gefangen geblieben oder als grobe Strichmännchen hervorgetreten – entblößt von jeglicher visueller Wirkung. Jemand meldete das Bild als „KI-generiert“. Am nächsten Tag führte der Server eine neue Regel ein, die generative KI-Inhalte verbietet. Diese Regel – und das Meme, das sie auslöste – inspirierten mich direkt dazu, den Essay „Hochdimensionale Geister und die Serialisierungsbelastung: Warum LLMs für neurodivergente Kommunikation wichtig sind“ zu schreiben und zu veröffentlichen. Ich hoffte, es würde zu einer Reflexion darüber anregen, wie diese Werkzeuge als kognitive und kreative Hilfsmittel dienen. Stattdessen wurde es zu einem eher ungeschickten Austausch mit dem Admin. Die Position des Skeptikers und der Austausch Der Admin argumentierte, dass LLMs nicht zum Wohle der Menschen entwickelt werden, sondern Ressourcenverschwendung und Militarisierung fördern. Er nannte Energieverbrauch, militärische Verbindungen, Modellkollaps, Halluzinationen und das Risiko eines „toten Internets“. Er gab zu, den Essay nur überflogen zu haben und einen leistungsstarken Gaming-Workstation zu besitzen, mit dem er fortgeschrittene lokale LLMs zum privaten Vergnügen laufen lassen kann, mit Zugang zu noch größeren Modellen über einen Freund. Mehrere Widersprüche traten zutage: - Meine Arbeit erfolgt auf einem stromsparenden, reparierbaren Raspberry Pi 5 (5–15 W) mit geteilten Cloud-Instanzen. Seine lokale Setup verbraucht weit mehr dedizierte Energie und Hardware. - Die Hardware, die er zum „Herumspielen“ mit leistungsstarken LLMs lokal nutzt, stammt von Unternehmen (Intel, AMD, NVIDIA) mit Milliarden an direkten Verträgen mit dem US-Verteidigungsministerium. Am auffälligsten war, dass die Person, die das Verbot durchsetzt, um Authentizität zu schützen, jemanden abtat, der aktiv LLMs auf faktenbasierte und geopolitische Vorurteile testet (siehe meine öffentlichen Audits von Grok und ChatGPT). Die Hawking-Analogie und die eigenen Worte des Admins Der Admin identifizierte sich selbst als neurodivergent und erkannte das Potenzial von KI als assistive Technologie an. Er lobte Echtzeit-Untertitelbrillen für Sehbehinderte als „wirklich cool“, bestand aber darauf, dass „eine Maschine Essays schreiben und Bilder zeichnen lassen etwas anderes ist“. Er fügte hinzu: „Neurodivergente Menschen können diese Dinge tun, viele haben Barrieren überwunden, um diese Fähigkeiten zu entwickeln.“ Er beschrieb auch seine eigene Erfahrung mit LLMs: „Je mehr ich bereits über ein Thema weiß, desto weniger brauche ich KI. Je weniger ich über ein Thema weiß, desto weniger bin ich in der Lage, Halluzinationen zu bemerken und zu korrigieren.“ Diese Aussagen enthüllen eine tiefe Asymmetrie in der Beurteilung von Hilfsmitteln. Stellen Sie sich vor, dieselbe Logik auf Stephen Hawking anzuwenden: „Wir erkennen an, dass ein Sprachsynthesizer Ihnen helfen könnte, schneller zu kommunizieren, aber wir würden es vorziehen, wenn Sie sich mehr mit Ihrer natürlichen Stimme bemühen. Viele Menschen mit Motoneuron-Krankheit haben Barrieren überwunden, um klar zu sprechen – Sie sollten diese Fähigkeiten auch entwickeln. Die Maschine tut etwas anderes als echte Sprache.“ Oder aus seiner eigenen Perspektive zur faktischen Genauigkeit: „Je mehr Hawking bereits über Kosmologie weiß, desto weniger braucht er den Synthesizer. Je weniger er weiß, desto weniger ist er in der Lage, Fehler in der Maschinenstimme zu bemerken und zu korrigieren.“ Niemand würde das akzeptieren. Wir verstanden, dass Hawkings Synthesizer kein Krücke oder Verdünnung war – er war die essenzielle Brücke, die es seinem außergewöhnlichen Geist ermöglichte, seine volle Tiefe ohne unüberwindbare physische Barrieren zu teilen. Der Komfort des Admins mit linearer, menschlich strukturierter Prosa spiegelt einen kognitiven Stil wider, der näher an neurotypischen Erwartungen liegt. Mein Profil ist das Gegenteil: Faktische und logische Tiefe kommt natürlich (wie die Entwicklung einer mehrsprachigen Publikationsplattform vollständig allein), aber die Produktion strukturierter, zugänglicher Prosa für menschliches Publikum war immer die Barriere – genau das, was der Essay beschreibt. Untertitelbrillen oder Alt-Text als legitime Hilfsmittel zu akzeptieren, während LLM-Strukturierung für kognitive Divergenz abgelehnt wird, bedeutet, eine willkürliche Grenze zu ziehen. Mastodon und das breitere Fediverse rühmen sich oft ihrer Inklusivität. Doch dies führt neue Tore ein: Bestimmte Hilfsmittel sind willkommen; andere müssen durch individuellen Effort überwunden werden. Historische Echos: Widerstand gegen transformative Werkzeuge Die pauschale Ablehnung öffentlicher generativer KI-Nutzung echoet ein wiederkehrendes Muster in der Technologiegeschichte. Im frühen 19. Jahrhundert in England zerstörten geschickte Weber, bekannt als Ludditen, mechanisierte Webstühle, die ihre Handwerkskunst und Lebensgrundlage bedrohten. Gaslampenanzünder in Städten widersetzten sich Edisons Glühbirne aus Angst vor Obsoleszenz. Kutscher, Stallburschen und Pferdezüchter sahen im Automobil eine existenzielle Bedrohung für ihre Lebensweise. Professionelle Schreiber und Zeichner betrachteten den Fotokopierer mit Alarm, da er akribische Handarbeit entwerten würde. Setzer und Drucker kämpften gegen computergestützte Satzsysteme. In jedem Fall stammte der Widerstand aus berechtigter Angst: Neue Technologie machte die Fähigkeiten, auf die sie stolz waren, obsolet und bedrohte ihre wirtschaftlichen Rollen und soziale Identität. Die Veränderungen fühlten sich wie eine Entwertung menschlicher Arbeit an. Doch die Geschichte bewertet diese Innovationen an ihrem breiteren Impact: Mechanisierung reduzierte Plackerei und ermöglichte Massenproduktion; elektrisches Licht verlängerte produktive Stunden und verbesserte Sicherheit; Automobile gewährten persönliche Mobilität; Fotokopierer demokratisierten Informationszugang; digitaler Satz machte Publizieren schneller und zugänglicher. Wenige heute würden zu Gaslampen oder Pferdekutschen zurückkehren, nur um traditionelle Jobs zu erhalten. Die Werkzeuge erweiterten menschliche Fähigkeiten und Teilhabe weit mehr, als sie sie minderten. Generative KI – als Prothese für Kognition oder Kreativität genutzt – folgt derselben Bahn: Sie tilgt nicht menschliche Absicht, sondern erweitert Ausdruck für jene, deren Ideen durch Ausführungsbarrieren eingeschränkt waren. Sie pauschal abzulehnen riskiert, den ludditischen Impuls zu wiederholen – vertraute Prozesse auf Kosten breiterer Teilhabe zu verteidigen. Schluss: Wer entscheidet, welche Hilfsmittel akzeptabel sind? Die in diesem Essay geschilderten Ereignisse – ein gemeldetes Bild, ein hastig eingeführtes Verbot, eine langwierige Debatte – enthüllen mehr als einen lokalen Streit über Technologie. Sie legen eine weit tiefere und grundlegendere Frage frei: Wer entscheidet, welche Hilfsmittel akzeptabel sind und welche nicht? Sollten es die Menschen sein, die in der Haut und dem Gehirn leben, die das Hilfsmittel brauchen – diejenigen, die aus täglicher Erfahrung wissen, was die Lücke zwischen ihren Fähigkeiten und voller Teilhabe überbrückt? Oder sollten es Außenstehende sein, so gut gemeint auch immer, die diese gelebte Realität nicht teilen und daher das Gewicht der Barriere nicht spüren können? Die Geschichte beantwortet diese Frage wiederholt und fast immer in dieselbe Richtung. Rollstühle wurden einst als Förderung von Abhängigkeit kritisiert; Gehörlosenbildungssysteme bestanden lange darauf, dass Kinder Lippenlesen und orale Sprache lernen statt Gebärdensprache. In jedem Fall setzten sich schließlich die Menschen durch, die der Beeinträchtigung am nächsten standen – nicht, weil sie Bedenken zu Kosten, Zugang oder potenziellen Missbrauch leugneten, sondern weil sie die primäre Autorität dafür waren, was tatsächlich ihre Handlungsfähigkeit und Würde wiederherstellte. Bei großen Sprachmodellen und anderen generativen Werkzeugen erleben wir denselben Zyklus erneut. Viele, die ihre Nutzung gatekeepen, erleben nicht die spezifischen kognitiven oder expressiven Barrieren, die lineare Strukturierung, narrativen Fluss oder rasche Serialisierung zu einer erschöpfenden Fremdsprachenübersetzung machen. Von außen kann „einfach mehr versuchen“ oder „die Fähigkeit entwickeln“ vernünftig klingen. Von innen ist das Werkzeug kein Shortcut um Effort herum; es ist die Rampe, das Hörgerät, die Prothese, die endlich bestehenden Effort die Welt erreichen lässt. Die tiefste Ironie tritt zutage, wenn die Gatekeeper sich selbst als neurodivergent identifizieren, deren besondere Neurologie jedoch im beurteilten Bereich näher an neurotypischen Erwartungen liegt. „Ich habe es so überwunden, also sollten andere das auch“ ist verständlich, funktioniert aber dennoch als Gatekeeping – reproduziert genau die Normen, die wir kritisieren, wenn sie von neurotypischen Autoritäten kommen. Ein konsistentes ethisches Prinzip ist überfällig: - Die Person, die der Beeinträchtigung am nächsten steht, ist die primäre Autorität dafür, was ihre sinnvolle Teilhabe ermöglicht. - Externe Kritik ist legitim bei kollektiven Schäden (Umweltimpact, Desinformationsrisiko, Arbeitsverdrängung), aber nicht bei der internen Legitimität des Hilfsmittels selbst. Ein besonders aufschlussreicher Doppelstandard zeigt sich in der weit verbreiteten Forderung, dass generative KI-Nutzung explizit offengelegt werden muss. Wir fordern keine ähnliche Offenlegung für die meisten anderen Hilfsmittel. Im Gegenteil, wir feiern technologische Fortschritte, die sie unsichtbar machen: Dicke Brillen ersetzt durch Kontaktlinsen oder refraktive Chirurgie; klobige Hörgeräte miniaturisiert bis zur fast Unsichtbarkeit; Medikation für Fokus, Stimmung oder Schmerz privat eingenommen ohne Fußnote oder Disclaimer. In diesen Fällen behandelt die Gesellschaft diskrete, verborgene Nutzung als Fortschritt – als Wiederherstellung von Würde und Normalität. Doch wenn das Hilfsmittel Kognition oder Expression erweitert, dreht sich das Skript um: Nun muss es markiert, angekündigt, gerechtfertigt werden. Unsichtbarkeit wird verdächtig statt wünschenswert. Diese selektive Forderung nach Transparenz geht nicht wirklich um Verhinderung von Täuschung; sie dient der Erhaltung von Komfort mit einem bestimmten Bild unassistierter menschlicher Autorschaft. Physische Korrekturen dürfen verschwinden; Korrekturen am Geist müssen auffällig markiert bleiben. Wenn wir konsistent sein wollen, müssen wir entweder Offenlegung für jedes Hilfsmittel fordern (eine absurde und invasive Anforderung) oder aufhören, kognitive Werkzeuge für besondere Prüfung herauszupicken. Die prinzipientreue Position – die Autonomie und Würde respektiert – ist, jedem Menschen zu erlauben, selbst zu entscheiden, wie sichtbar oder unsichtbar sein Hilfsmittel sein soll, ohne strafende Regeln, die eine Form der Assistenz anvisieren, weil sie bestehende Vorstellungen von Kreativität und Intellekt verunsichert. Dieser Essay ist nicht nur eine Verteidigung eines bestimmten Werkzeugs. Er ist eine Verteidigung des breiteren Rechts behinderter und neurodivergenter Menschen, ihre eigenen Zugangsbedürfnisse zu definieren, ohne sie denen rechtfertigen zu müssen, die nie in ihren Schuhen gelaufen sind. Dieses Recht sollte nicht kontrovers sein. Doch wie der vorangehende Bericht zeigt, ist es das immer noch.