Leçons tirées d’une tentative de débat avec un sceptique de l’IA L’épisode a commencé avec un mème politique que j’ai posté : Donald Trump et Benjamin Netanyahu en combinaisons orange de prison, assis sur un lit superposé sous un overlay chaleureux et nostalgique de Noël portant l’inscription « All I Want for Christmas ». L’ironie visuelle était immédiate et tranchante. Sa création a nécessité des contournements délibérés. Les modèles contemporains de génération d’images ont à la fois des garde-fous politiques et des limitations techniques de cohérence : - Grok autorise les caricatures de figures prominentes mais échoue systématiquement à produire un texte superposé fiable. - ChatGPT excelle dans la génération de texte festif décoratif comme « All I Want for Christmas » mais ses garde-fous refusent les prompts représentant des leaders politiques vivants en situation carcérale. Aucun modèle unique ne pouvait produire l’image complète. Les éléments contradictoires — satire politique chargée combinée à un message sentimental de fêtes — déclenchent des mécanismes de refus ou des échecs de cohérence. Les LLMs sont tout simplement incapables de synthétiser de tels composants conceptuellement opposés en une sortie cohérente. J’ai généré les deux éléments séparément, puis les ai fusionnés et édités manuellement dans GIMP. Le composite final était indéniablement généré par un humain : mon concept, ma sélection des composants, mon assemblage et mes ajustements. Sans ces outils, la satire serait restée prisonnière de ma tête ou aurait émergé sous forme de grossiers bonhommes bâtons — dépourvus de tout impact visuel. Quelqu’un a signalé l’image comme « générée par IA ». Le lendemain, le serveur a introduit une nouvelle règle interdisant le contenu génératif par IA. Cette règle — et le mème qui l’a déclenchée — m’a directement inspiré à écrire et publier l’essai « High-Dimensional Minds and the Serialization Burden: Why LLMs Matter for Neurodivergent Communication ». J’espérais qu’il encouragerait une réflexion sur la façon dont ces outils servent d’accommodements cognitifs et créatifs. Mais cela s’est transformé en un échange plutôt maladroit avec l’administrateur. La position du sceptique et l’échange L’administrateur a soutenu que les LLMs ne sont pas développés pour le bénéfice humain mais favorisent le gaspillage de ressources et la militarisation. Il a cité la consommation énergétique, les liens militaires, l’effondrement des modèles, les hallucinations et le risque d’un « internet mort ». Il a révélé avoir seulement survolé l’essai et admis posséder une puissante station de travail gaming capable d’exécuter des LLMs locaux avancés pour son amusement privé, avec accès à des modèles encore plus grands via un ami. Plusieurs contradictions ont émergé : - Mon travail se fait sur un Raspberry Pi 5 réparable et à faible consommation (5–15 W) en utilisant des instances cloud partagées. Son installation locale consomme bien plus d’énergie et de matériel dédié. - Le matériel qu’il utilise pour « bricoler » des LLMs puissants localement provient d’entreprises (Intel, AMD, NVIDIA) ayant des contrats directs avec le DoD pour des milliards. Le plus frappant, la personne appliquant l’interdiction pour protéger l’authenticité rejetait quelqu’un qui teste activement les LLMs pour des biais factuels et géopolitiques (voir mes audits publics de Grok et ChatGPT). L’analogie avec Hawking et les propres mots de l’administrateur L’administrateur s’est identifié comme neurodivergent et a reconnu le potentiel de l’IA comme technologie d’assistance. Il a qualifié de « vraiment cool » les lunettes de sous-titrage en temps réel pour les malvoyants, mais a insisté sur le fait que « faire écrire des essais et dessiner des images par une machine est différent ». Il a ajouté : « Les personnes neurodivergentes peuvent faire ces choses, beaucoup ont surmonté des barrières pour développer ces compétences. » Il a aussi décrit sa propre expérience avec les LLMs : « Plus je connais déjà un sujet, moins j’ai besoin d’IA. Moins je connais un sujet, moins je suis équipé pour remarquer les hallucinations et les corriger. » Ces déclarations révèlent une profonde asymétrie dans la façon dont les accommodements sont jugés. Imaginez appliquer la même logique à Stephen Hawking : « Nous reconnaissons qu’un synthétiseur vocal pourrait vous aider à communiquer plus rapidement, mais nous préférerions que vous essayiez plus fort avec votre voix naturelle. Beaucoup de personnes atteintes de maladie du motoneurone ont surmonté des barrières pour parler clairement — vous devriez développer ces compétences aussi. La machine fait quelque chose de différent de la vraie parole. » Ou, depuis sa propre perspective sur l’exactitude factuelle : « Plus Hawking connaît déjà la cosmologie, moins il a besoin du synthétiseur. Moins il connaît, moins il est équipé pour remarquer les erreurs dans la voix de la machine et les corriger. » Personne n’accepterait cela. Nous comprenions que le synthétiseur de Hawking n’était pas une béquille ou une dilution — c’était le pont essentiel qui permettait à son esprit extraordinaire de partager toute sa profondeur sans barrières physiques insurmontables. Le confort de l’administrateur avec une prose linéaire et étayée par des humains reflète un style cognitif qui s’aligne plus étroitement avec les attentes neurotypiques. Mon profil est l’inverse : la profondeur factuelle et logique vient naturellement (comme développer une plateforme de publication multilingue entièrement seul), mais produire une prose étayée et accessible pour un public humain a toujours été la barrière — exactement ce que décrit l’essai. Accepter les lunettes de sous-titrage ou le texte alternatif comme accommodements légitimes tout en rejetant l’étayage par LLM pour la divergence cognitive, c’est tracer une frontière arbitraire. Mastodon et le Fediverse au sens large se targuent souvent d’inclusivité. Pourtant, cela introduit de nouvelles barrières : certains accommodements sont bienvenus ; d’autres doivent être surmontés par l’effort individuel. Échos historiques : Résistance aux outils transformateurs Le rejet catégorique de l’utilisation publique de l’IA générative fait écho à un schéma récurrent dans l’histoire technologique. Au début du XIXe siècle en Angleterre, des ouvriers qualifiés connus sous le nom de Luddites brisaient les métiers à tisser mécanisés qui menaçaient leur artisanat et leurs moyens de subsistance. Les allumeurs de réverbères opposaient la lampe à incandescence d’Edison, craignant l’obsolescence. Cochers, palefreniers et éleveurs de chevaux résistaient à l’automobile comme une menace existentielle pour leur mode de vie. Les scribes et dessinateurs professionnels voyaient le photocopieur avec alarme, croyant qu’il dévaloriserait le travail manuel méticuleux. Les compositeurs et imprimeurs combattaient les systèmes de composition informatisés. Dans chaque cas, la résistance provenait d’une peur réelle : la nouvelle technologie rendait obsolètes les compétences dont ils étaient fiers, remettant en question leurs rôles économiques et leur identité sociale. Les changements semblaient une dévaluation du travail humain. Pourtant, l’histoire évalue ces innovations par leur impact plus large : la mécanisation a réduit la corvée et permis la production de masse ; l’éclairage électrique a prolongé les heures productives et amélioré la sécurité ; les automobiles ont accordé la mobilité personnelle ; les photocopieurs ont démocratisé l’accès à l’information ; la composition numérique a rendu l’édition plus rapide et accessible. Peu de gens aujourd’hui reviendraient aux lampes à gaz ou aux transports hippomobiles simplement pour préserver les emplois traditionnels. Les outils ont étendu les capacités et la participation humaines bien plus qu’ils ne les ont diminuées. L’IA générative — utilisée comme prothèse pour la cognition ou la créativité — suit la même trajectoire : elle n’éradique pas l’intention humaine mais étend l’expression à ceux dont les idées ont été contraintes par des barrières d’exécution. La rejeter catégoriquement risque de répéter l’impulsion luddite — défendre des processus familiers au prix d’une participation plus large. Conclusion : Qui décide quels accommodements sont acceptables ? Les événements racontés dans cet essai — une image signalée, une interdiction imposée à la hâte, un débat prolongé — révèlent plus qu’un désaccord local sur la technologie. Ils exposent une question bien plus profonde et fondamentale : Qui décide quels accommodements sont acceptables, et lesquels ne le sont pas ? Devrait-ce être les personnes qui vivent dans la peau et le cerveau qui ont besoin de l’accommodement — celles qui savent, par l’expérience quotidienne, ce qui comble l’écart entre leurs capacités et une pleine participation ? Ou devrait-ce être des outsiders, aussi bien intentionnés soient-ils, qui ne partagent pas cette réalité vécue et ne peuvent donc pas sentir le poids de la barrière ? L’histoire répond à cette question de manière répétée, et presque toujours dans la même direction. Les fauteuils roulants ont autrefois été critiqués pour encourager la dépendance ; les systèmes éducatifs pour sourds ont longtemps insisté pour que les enfants apprennent la lecture labiale et la parole orale au lieu de la langue des signes. Dans chaque cas, les personnes les plus proches du handicap ont finalement prévalu — non parce qu’elles niaient les préoccupations de coût, d’accès ou d’abus potentiel, mais parce qu’elles étaient les autorités principales sur ce qui restaurait réellement leur agence et leur dignité. Avec les grands modèles de langage et autres outils génératifs, nous vivons à nouveau le même cycle. Beaucoup de ceux qui contrôlent leur utilisation ne vivent pas les barrières cognitives ou expressives spécifiques qui rendent l’étayage linéaire, le flux narratif ou la sérialisation rapide semblables à une tâche épuisante de traduction en langue étrangère. De l’extérieur, « essayez plus fort » ou « développez la compétence » peut sembler raisonnable. De l’intérieur, l’outil n’est pas un raccourci autour de l’effort ; c’est la rampe, l’aide auditive, la prothèse qui permet enfin à l’effort préexistant d’atteindre le monde. L’ironie la plus profonde émerge quand les arbitres s’identifient comme neurodivergents, pourtant leur neurologie particulière s’aligne plus étroitement avec les attentes neurotypiques dans le domaine jugé. « Je l’ai surmonté de cette façon, donc les autres devraient aussi » est compréhensible, mais cela fonctionne toujours comme un contrôle d’accès — reproduisant les normes mêmes que nous critiquons quand elles viennent d’autorités neurotypiques. Un principe éthique cohérent est en retard : - La personne la plus proche du handicap est l’autorité principale sur ce qui permet sa participation significative. - La critique externe est légitime sur les dommages collectifs (impact environnemental, risque de désinformation, déplacement de main-d’œuvre), mais pas sur la légitimité interne de l’accommodement lui-même. Un double standard particulièrement révélateur apparaît dans l’exigence généralisée que l’utilisation d’IA générative soit explicitement divulguée. Nous n’exigeons pas de divulgation similaire pour la plupart des autres accommodements. Au contraire, nous célébrons activement les avancées technologiques qui les rendent invisibles : les lunettes épaisses remplacées par des lentilles de contact ou la chirurgie réfractive ; les appareils auditifs volumineux miniaturisés jusqu’à l’invisibilité ; les médicaments pour la concentration, l’humeur ou la douleur pris en privé sans note de bas de page ou disclaimer. Dans ces cas, la société traite l’utilisation discrète et cachée comme un progrès — comme une restauration de la dignité et de la normalité. Pourtant, quand l’accommodement étend la cognition ou l’expression, le scénario s’inverse : il doit maintenant être signalé, annoncé, justifié. L’invisibilité devient suspecte plutôt que désirable. Cette exigence sélective de transparence n’est pas vraiment pour prévenir la tromperie ; elle vise à préserver le confort avec une image particulière de l’auteur humain non assisté. Les corrections physiques sont autorisées à disparaître ; les corrections de l’esprit doivent rester visiblement marquées. Si nous voulons être cohérents, nous devons soit exiger la divulgation pour chaque accommodement (une exigence absurde et invasive) soit cesser de cibler les outils cognitifs pour un examen spécial. La position de principe — celle qui respecte l’autonomie et la dignité — est de permettre à chaque personne de décider à quel point son accommodement doit être visible ou invisible, sans règles punitives qui ciblent une forme d’assistance parce qu’elle perturbe les notions existantes de créativité et d’intellect. Cet essai n’est pas seulement une défense d’un outil particulier. C’est une défense du droit plus large des personnes handicapées et neurodivergentes à définir leurs propres besoins d’accès, sans avoir à les justifier auprès de ceux qui n’ont jamais marché dans leurs chaussures. Ce droit ne devrait pas être controversé. Pourtant, comme le montre le récit précédent, il l’est encore.