从试图与一位 AI 怀疑论者争论中吸取的教训 这一事件起因于我发布的一张政治迷因:唐纳德·特朗普和本杰明·内塔尼亚胡穿着橙色囚服,坐在双层床上,上面覆盖着一层温暖、怀旧的圣诞节滤镜,文字写着“All I Want for Christmas”(我想要的圣诞礼物)。视觉上的讽刺效果立即显现且尖锐。制作这张图片需要刻意的变通方法。当代图像生成模型既有政策防护措施,也有技术一致性限制: - Grok 允许生成知名人物的讽刺漫画,但始终无法可靠地生成叠加文字。 - ChatGPT 擅长生成装饰性的节日文字,如“All I Want for Christmas”,但其防护机制会拒绝描绘在世政治领袖身处监狱环境的提示。 没有单一模型能够生成完整的图像。这种矛盾元素——充满政治讽刺的内容与感伤的节日信息相结合——会触发拒绝机制或一致性失败。大语言模型(LLM)根本无法将这些概念上对立的组件合成一个连贯的输出。我分别生成了两个元素,然后在 GIMP 中手动合并和编辑。最终的合成图像无疑是人类生成的:我的概念、我选择的组件、我组装和调整。如果没有这些工具,这份讽刺将只能停留在我的脑海中,或者以粗糙的火柴人形式出现——完全丧失视觉冲击力。 有人举报这张图像为“AI 生成”。第二天,服务器引入了一条新规则,禁止生成式 AI 内容。这条规则——以及引发它的那张迷因——直接激发我撰写并发表了文章《高维心智与序列化负担:为什么大语言模型对神经多样性沟通至关重要》。我希望它能引发人们对这些工具如何作为认知和创造性辅助的反思。但它却演变成与管理员的一场颇为尴尬的交流。 怀疑论者的立场与交流过程 管理员认为,大语言模型并非为人类福祉而开发,而是助长资源浪费和军事化。他列举了能源消耗、军事联系、模型崩塌、幻觉,以及“死互联网”的风险。他透露自己只略读了我的文章,并承认自己拥有一台强大的游戏工作站,能够私下运行先进的本地大语言模型,还通过朋友访问更大规模的模型。 几个矛盾点浮出水面: - 我的工作在低功耗、可维修的 Raspberry Pi 5(5–15 W)上进行,使用共享云实例。他的本地设置消耗了远更多的专用能源和硬件。 - 他用于“玩弄”强大大语言模型的硬件来自与美国国防部签订数十亿美元合同的公司(Intel、AMD、NVIDIA)。 最引人注目的是,这位为保护真实性而执行禁令的人,却在轻视一个积极对大语言模型进行事实和地缘政治偏见压力测试的人(参见我对 Grok 和 ChatGPT 的公开审计)。 霍金类比与管理员自己的话语 管理员自认是神经多样性者,并承认 AI 作为辅助技术的潜力。他称赞为视障者提供的实时字幕眼镜“真的很酷”,但坚持认为“让机器写文章和画画是不同的”。他补充道:“神经多样性者能够做到这些,许多人已经克服障碍来发展这些技能。”他还描述了自己使用大语言模型的经历:“我对一个主题了解得越多,就越不需要 AI。我对一个主题了解得越少,就越没有能力注意到幻觉并纠正它们。”这些陈述揭示了在判断辅助手段时的深刻不对称。 想象一下将同样的逻辑应用于斯蒂芬·霍金: “我们承认语音合成器可以帮助你更快地沟通,但我们更希望你用自己的自然声音更努力一些。许多患有运动神经元病的人已经克服障碍来说清楚话——你也应该发展这些技能。机器做的事情与真正的言语不同。” 或者,从他自己对事实准确性的视角: “霍金对宇宙学了解得越多,他就越不需要合成器。他了解得越少,就越没有能力注意到机器声音中的错误并纠正它们。” 没有人会接受这种说法。我们明白,霍金的合成器不是拐杖或稀释——它是必需的桥梁,让他的非凡心智能够毫无物理障碍地分享其全部深度。 管理员对线性、人类支架式散文的舒适感,反映了一种更接近神经典型预期的认知风格。我的情况正好相反:事实和逻辑深度对我来说是自然的(例如我独自开发了一个多语言发布平台),但为人类受众产生支架式、可及的散文一直是障碍——这正是文章所描述的。接受字幕眼镜或替代文本作为合法辅助,却拒绝大语言模型对认知差异的支架,这是在划定一条任意界线。Mastodon 和更广泛的 Fediverse 常常以包容性自豪。然而,这引入了新的关卡:某些辅助被欢迎;其他的则必须通过个人努力克服。 历史回响:对变革性工具的抵抗 对公开使用生成式 AI 的全面拒绝,呼应了技术史上反复出现的模式。19世纪早期英国,熟练织工(称为卢德派)砸毁威胁他们工艺和生计的机械织机。城市煤气灯点灯工反对爱迪生的白炽灯泡,担心自己过时。马车夫、马厩工人和马匹育种者将汽车视为对他们生活方式的生存威胁。专业抄写员和绘图员对复印机感到惊慌,认为它会贬低精细手工。排字工和印刷工抗争计算机化排版系统。 在每一个案例中,抵抗都源于真实的恐惧:新技术使他们引以为傲的技能过时,挑战了他们的经济角色和社会身份。这些变化感觉像是对人类劳动的贬值。 然而,历史根据这些创新的更广泛影响来评估它们:机械化减少了苦役并实现了大规模生产;电灯延长了生产时间并提高了安全性;汽车赋予了个人机动性;复印机民主化了信息获取;数字排版使出版更快、更易获取。今天很少有人会为了保留传统工作而回归煤气灯或马拉交通工具。这些工具扩展人类能力与参与的机会,远超过它们造成的减损。 生成式 AI ——作为认知或创造力的义肢使用——遵循同样的轨迹:它不会消灭人类意图,而是将表达扩展到那些因执行障碍而受限想法的人。彻底拒绝它有重复卢德派冲动的风险——以更广泛参与为代价捍卫熟悉的过程。 结论:谁来决定哪些辅助是可接受的? 本文叙述的事件——一张被举报的图像、一条仓促实施的禁令、一场旷日持久的辩论——揭示的远不止一场关于技术的局部分歧。它们暴露了一个更深层、更根本的问题:谁来决定哪些辅助是可接受的,哪些不是? 应该是那些生活在需要辅助的皮肤和大脑中的人——那些从日常经验中知道什么能弥合他们的能力和充分参与之间差距的人?还是外人,无论多么善意,却不分享那种生活现实,因此无法感受到障碍的重量的那些人? 历史反复回答这个问题,几乎总是指向同一个方向。轮椅曾被批评为鼓励依赖;聋人教育系统长期坚持儿童学习读唇和口语而非手语。在每一个案例中,最接近障碍的人最终获胜——不是因为他们否认成本、获取或潜在滥用的担忧,而是因为他们是恢复自身能动性和尊严的首要权威。 对于大语言模型和其他生成工具,我们正在经历同样的循环。许多把关其使用的人,并未经历使线性支架、叙事流或快速序列化感觉像精疲力竭的外语翻译任务的特定认知或表达障碍。从外部看,“再努力一点”或“发展技能”听起来合理。从内部看,这个工具不是绕过努力的捷径;它是坡道、助听器、义肢,终于让既有的努力触及世界。 最深刻的讽刺出现在当把关者自认神经多样性时,但他们的特定神经类型在被判断的领域更接近神经典型预期。“我这样克服了,所以别人也应该这样”是可以理解的,但它仍然起到把关作用——复制了我们从神经典型权威那里批判的规范。一项一致的伦理原则早已到期: - 最接近障碍的人,是决定什么能实现其有意义参与的首要权威。 - 外部批判在集体伤害(环境影响、信息错误风险、劳动力流失)上是合法的,但不能针对辅助本身的内部合法性。 一个特别明显的双重标准出现在广泛要求明确披露生成式 AI 使用。我们对大多数其他辅助并不要求类似披露。相反,我们积极庆祝使它们隐形的科技进步:厚眼镜被隐形眼镜或屈光手术取代;笨重的助听器缩小到几乎不可见;用于注意力、情绪或疼痛的药物私下服用而不需脚注或免责声明。在这些案例中,社会将谨慎、隐形使用视为进步——恢复尊严和正常性。然而,当辅助扩展到认知或表达时,剧本翻转:现在它必须被标记、宣布、辩护。隐形变得可疑而非理想。这种选择性的透明要求并非真正为了防止欺骗;它是为了维护对特定未经辅助人类作者形象的舒适感。身体矫正被允许消失;对心智的矫正必须保持显眼标记。 如果我们要一致,我们要么要求披露每一种辅助(一个荒谬且侵入性的要求),要么停止单独挑出认知工具进行特殊审查。原则立场——尊重自主和尊严的立场——是允许每个人决定自己的辅助应多么可见或隐形,而不以惩罚性规则针对一种援助形式,因为它扰乱了现有的创造力和智力概念。本文不仅仅是为一种特定工具辩护。它是为残疾和神经多样性者定义自身接入需求的更广泛权利辩护,而无需向那些从未穿过他们鞋子的人辩解。那项权利本不应有争议。然而,正如前述叙述所示,它仍然是。