AI作为法西斯产物
摘要
文章指出,AI系统并非仅仅被威权者使用才显法西斯倾向,其架构本身就集中控制、监控并助长暴力,因此天然带有法西斯特质。
<p><a href="https://lobste.rs/s/cs4kew/ai_as_fascist_artifact">评论</a></p>
查看缓存全文
缓存时间: 2026/04/22 12:06
# AI 作为法西斯人造物
来源:https://tante.cc/2026/04/21/ai-as-a-fascist-artifact/
*(这篇文章融合了我最近关于法西斯主义与 AI 的两场演讲:一场是德语,在“反抗之缆”大会(https://programm.infraunited.org/cableresist26/talk/XGRLHA/);一场是英语,在 Milton Wolf 媒体与外交研讨会(https://www.asc.upenn.edu/research/centers/milton-wolf-seminar-on-media-and-diplomacy/2026-seminar)。我插入了部分演讲幻灯片截图作为结构标记,嫌碍眼可直接忽略。下文并非逐字稿,而是更易读的扩展版论证。)*
“两名宇航员”表情包,对白:“我们的技术里有法西斯吗?”——“一直都有。”
我们对世界的感知与接入,越来越被技术中介所塑形:数字平台与系统不仅主导工作场景、与政府或“媒体”的交互,也渗透进个体间的日常互动。我们的世界围绕技术基础设施运转,这些设施决定了我们能看到什么、能与谁交谈、被投喂何种信息。
与此同时,全球法西斯威胁日益高涨:多国新法西斯运动与政党伺机夺权,甚至已被保守政党纳入联合政府。法西斯正凶猛回潮。(反法西斯者已警告数十年,可惜觉悟救不了任何人。等哪天清算了法西斯,再谈吸取教训吧。)
当然,我们也身处“AI”时代:随机系统被赋予能动性,以“代理式 AI”之名塞进所有工作与生活流程。“AI”是当前科技界的唯一焦点,被政府与企业视为续命晚期资本主义的魔杖。
本文想剖析法西斯主义与今日所谓“AI”的关系:重塑世界的“技术”(好坏参半,实则坏占上风)是否与法西斯有内在关联?抑或只是法西斯趁手的工具?它是否中立?
谈起法西斯,我们往往盯着行动者:邪恶个体因邪恶动机干邪恶勾当。
Marc Andreessen《技术乐观主义宣言》截图
于是,我们看待“AI”与法西斯的关系也常如此:特朗普白宫及其团队用生成式“AI”制作领袖崇拜宣传、用“AI”改图抹黑对手、用“AI”批量制造种族主义与法西斯内容。
Palantir CEO Alex Karp 两年来满脑子只想一件事(https://gizmodo.com/palantirs-billionaire-ceo-just-cant-stop-talking-about-killing-people-2000560597):用他的数据整合平台(其实产品挺无聊)杀人。而且不是随机杀。他自封为“西方”战士,率软件工程师保卫美利坚与“西方”对抗“敌人”。Palantir 公开要做军方“击杀决策”关键基础设施,把软件当武器推销——这既是法西斯式暴力常态化,也是营销话术:单纯数据整合卖不出几十亿,若能“杀敌”合同就滚滚来。
还有 Marc Andreessen,去年发表《技术乐观主义宣言》(https://a16z.com/the-techno-optimist-manifesto/),标题乐观,实质是要求别被比他聪明的人监管或嘲笑。文件直接引用意大利法西斯分子与右翼反动派如 Nick Land,并点名“敌人”:共产分子、卢德分子、想监管科技者——法西斯百年来的经典反派名单。
“11 任博士”截图:“让我来拯救你”
当发现科技或特定技术(如“AI”)被右翼“俘获”,有人便想“拯救”或“夺回”这些技术。毕竟它们已深嵌生活,难以想象没有它们的世界。我们爱 App 与便利,技术无辜,怪只怪法西斯使用者。若左派别再骂“AI”(或元宇宙、区块链之类),是否就能让“AI”变得良善、伦理、民主?把技术从坏人手里救回?开源就行?
Langdon Winner 名篇截图:《人造物有政治性吗?》
Winner 在 1980 年代经典论文《人造物有政治性吗?》(https://faculty.cc.gatech.edu/~beki/cs4001/Winner.pdf)中指出,“中立技术”站不住脚:特定人造物的政治性不仅来自*谁*用、*何*用,还源于设计者的政治观与内部结构。
他举例:某些桥梁被建得种族主义。美国民权运动让黑人孩子有权就读白人学校后,政客故意把道路桥梁修得让载黑人孩子的校车无法通过——不是疏忽,是设计意图。种族主义被砌进人造物结构。
Winner 亦指出,某些技术要存在,就必须配套特定政治或社会结构:核弹不仅需科学家与认同毁灭逻辑的国家,还需安全国家机器控制保卫它。没有这些结构,核弹造不出来;人造物本身即强制这些结构。
Winner 并不认为嵌入政治绝对不可逆:许多潜在压迫技术被艺术家与活动家反用途化,但那是逆水行舟——例如监控永远倾向更强制、僵化、不自由的政府观。你可用(反)监控,但得时刻警惕别复制你想批判的逻辑。
循此,问题浮现:今日“AI”嵌入的结构政治是什么?它需要或暗示怎样的世界、世界观、政治?它把我们推向哪条路径?
Ali Alkhatib《定义 AI》文章截图:AI 不是技术人造物,而是政治项目
在深入前,先厘清“AI”定义。我认为这词基本没用——建议尽量少用,因为它遮蔽多于阐明。但既然避不开,就得面对。关键认识:“AI”并无精确定义,它可以是 LLM(随机吐词机)、符号知识库、Excel 宏、印度呼叫中心客服,或 PPT 里的一页。它并不指代特定技术物。
我推崇 Ali Alkhatib 的定义(https://ali-alkhatib.com/blog/defining-ai):
> 我们该抛弃“AI 是有政治属性的技术人造物”这种想法,应认清 AI 彻头彻尾是政治人造物。AI 是一项意识形态工程,把权威与自主性从个体转移到集中化权力结构。那些声称“民主化 AI”的项目,常把“民主化”混同为“商品化”。——Ali Alkhatib
“AI”是政治项目(我亦称之为叙事),目的在把权力与能动性从人转移到集中权力结构——当下即少数科技巨头及其源源不断注资的“AI 实验室”。
虽嫌词烂,下文仍沿用当下主流理解:“AI”指一类随机机器学习系统,可存储并应用从数据提取的模式,进行*模式识别*(如计算机视觉)或*生成*(“生成式 AI”)。故文中“AI”即 ChatGPT、Claude、Gemini、DeepSeek 等。
回到法西斯。
Gareth Watkins 文章截图,载于《新社会主义者》:《AI:法西斯的新美学》
媒体研究已大量分析“AI”的法西斯用法,推荐 Gareth Watkins 文章《AI:法西斯的新美学》(https://newsocialist.org.uk/transmissions/ai-the-new-aesthetics-of-fascism/)。他指出生成图像机的结构输出特性,与右翼政治推理高度契合。
“AI”靠爬取互联网及其他数据源训练,而数据大多饱含种族化、殖民、性别歧视、异性恋本位。世上不存在非种族主义的警察数据。基于现成图像训练,LGBTQIA 群体、不符社会规范者的 Representation 惨不忍睹。
这些数据天生*排他*:“AI”并非基于“全人类知识”,而是基于西方视角认定的“相关”内容。口传历史与知识体系的文化被无视;即使未被主动排除,也因数据看不见而失声。若被呈现,也只是“问题”:如无家可归者。
右翼爱死这些模式,因其印证偏见:让图像机生成“两人接吻”,多半吐出白人异性恋——训练数据如此。于是“AI”完美生成法西斯钟爱的理想化虚构“过去”(“让美国*再*伟大”),那从未存在却需被拯救/恢复的过去。
另一点:*AI 能伤害他们想伤害的人*。“AI”目前主战场在媒体(图、插画、音乐、文本),而创意产业从业者多左倾、包容。*法西斯本就搞不出好艺术。*用“AI”夺其工作、生计、创作表达,正是右翼乐子所在:一场[赤裸裸的权势表演](https://tante.cc/2025/03/28/vulgar-display-of-power/)。
由此深入“AI”结构属性:用法偏右只是表象,内核更具法西斯倾向。
插图:靴子踩人脸,旁标“暴力/数据”
任何有模有样的现代“AI”系统,皆因*暴力*而生、以*暴力*为基。
暴力不止于拳打脚踢。剥夺能动性、让人受苦皆是暴力,形态多样。“AI”需社会对无尽暴力的默认(以下仅节选):
**其一**,数据获取暴力:训练“AI”需天量数据,合法获取极难,尤其当大众拒绝作品被喂机器。我服务器跑 [iocaine](https://iocaine.madhouse-project.org/),每天见无数 AI 爬虫无视我的拒绝声明硬爬。不止我,AI 实验室持续盗版图书、扫描一切,明知非法缺德却无所谓。“能下载就能用”——*强权即公理*。
**其二**,数据清洗与标注暴力:全球南方工人日以继夜观看人类最黑暗内容,只为滤掉酷刑与性暴力画面。超低报酬+精神酷刑,母亲因噩梦无法入睡,就因我们懒得找张正版图。
**其三**,殖民式西方视角把被 digitized 之物宣告为“全人类知识”。若你对西方资本无用,你的历史、经验便被踢出“知识”,被降格为次等人。
**其四**, marginalized 群体被“AI”工具伤害,社会却要求忍气吞声。从特朗普用“AI”做种族宣传,到针对女性的深度伪造性暴力,层出不穷。
相似文章
左翼支持人工智能的理由
本文概述了支持人工智能的左翼视角,强调了其在改善残疾人无障碍访问和慢性病管理方面的益处,同时对反人工智能情绪的政治倾向提出了批评。
AI与网络安全的未来:为何开放性至关重要
Hugging Face 分析了 Anthropic 的 Mythos 模型对网络安全的影响,认为开放式工具和半自主智能体在抵御 AI 驱动威胁方面具有结构性优势。
我确实想不出比政治更适合 AI 的用例了。
文章认为,AI 可以通过优化社会整体结果而非个人利益,从而解决政治低效问题,同时也承认了操纵和威权主义带来的重大风险。
AI 代理最危险的部分始于其获得执行权限之时
本文强调了 AI 代理获得基础设施执行权限所带来的关键风险,认为如果没有外部准入层来防止灾难性故障,现有的安全护栏是不够的。
AI幻觉可能比人类更“人性”
文章指出,AI幻觉其实映射了人类的认知偏差——确认偏误、过度自信等,它们并非纯粹的技术缺陷,而是像人类一样在知识缺口处“脑补”的结果。