人工智能作为一种社会技术
摘要
本文批判了人工智能话语中持续存在的“奇点”叙事,主张应将当前的大语言模型作为一种社会技术来分析,而不是将其视为通往超智能的神秘路径。
<p><a href="https://lobste.rs/s/vlpdgd/ai_as_social_technology">评论</a></p>
查看缓存全文
缓存时间: 2026/05/13 14:17
# 人工智能作为社会技术
来源: https://knightcolumbia.org/content/ai-as-social-technology
### 引言
关于“人工智能”的辩论源于 20 世纪 90 年代的科幻小说。当时,文斯(Vinge,1993 年)撰写了文章和小说,敦促我们直面即将到来的“奇点”:这是一个剧烈变革的时刻,将从根本上改变人类的生存状态。在那一天,人工智能将从仅仅具备人类水平的智能(有些人现在称之为“通用人工智能”或 AGI)迅速进化为具有自身利益和目标的超级智能。届时,人类要么会被失控的机器随意消灭,要么会变成神一般存在,拥有超人级的仆从供我们驱使。
尽管由此产生的科幻小说非常出色(尤其是文斯,1992 年),但令人震惊的是,这个 90 年代的梦境至今仍活跃并影响着当前的辩论。出于复杂的社会和文化原因(Becker, 2025),许多现代生成式人工智能的先驱和资助者深深陷入了这种神话叙事,并围绕它构建了自己的商业战略和创新体系(Hao, 2025)。随着奇点思维溢出其控制范围,它助长了对更广泛的社会、政治和经济转型的猜测。人工智能是否会强化威权主义的思想控制(Harari, 2018),或者重塑民主制度(Gudiño 等, 2024)?新自由主义是否会变成一个野蛮、具有自我意识且吞噬一切的“机械”系统(Land, 2011)?同样,针对这些及其他可能性的优秀科幻小说作品层出不穷(Banks, 1987; Reynolds, 2000; Stross, 2005; Chiang, 2010; McAuley, 2010; Valente, 2011; Emrys, 2022),但小说家(通常)在融入复杂性方面更为谨慎,很少有人将自己定位为先知或预言家。
推测性非虚构作品中关于 AGI 的作者们则较少受到拘束,他们提供了宏大的愿景,描述信息技术将如何彻底改变社会、经济、政治或这三者的全部。他们不像看待一种技术那样看待 AGI,正如 Andreessen(2023 年)所言,将其视为“我们的炼金术、我们的哲人石”,一种能够溶解人类制度中的杂质和冗余,只留下纯粹、未稀释的进步的万能溶剂。预言家们经常以略微不那么风格化的方式描述那些在变革边缘颤抖的社会制度,例如声称人工智能可能将我们带入孔多塞的新理性时代乌托邦,这一次,幸而没有等待死刑犯赴斩首台的囚车(Hall, 2026)。结果是一个我们认为更有可能混淆聪明人的视听并导致其误入歧途,而非有用指导公共行动的体裁。
所有这些愿望和论点,如我们所言,都植根于神话,这些神话比如今似乎体现它们的技术——大语言模型(LLMs)——至少要早二十年。正是由于 LLMs 在短短几年间从机器翻译的技术改进(Vaswani 等, 2017 年)转变为被宣布为通往 AGI 的皇家大道,这些辩论才真正变得重要。LLMs 是人类语言(包括人类编写的计算机代码)极其优秀的生成统计模型。这使得它们能够以类似于人类对话的方式处理语言,并可以通过临时拼凑的方式创造出大致近似人类推理的文本。这是一种新的物质现实,世界上的新力量,但其实际影响被包裹它的神话外衣所掩盖。
如果我们不被那些关于回形针最大化者重塑银河系、全知全能的恐怖或奇迹官僚机构、突然获得自我意识的市场等故事所打动,这并不是因为我们认为它们太奇怪了。相反,它们远不够奇怪,并且忽略了其中许多奇怪之处已经存在。我们面临的可能未来比那种全知全能 AGI 的 stark 愿景要混乱和多样化得多,就像我们的近期过去一样。它们将由不完美的、高度复杂的技术与不完美的、高度复杂的人类社会系统之间的碰撞所塑造(Matias, 2023; Nelson, 待发表)。预测后果是不可能的,但我们*可以*在事情发生时对其绘制地图、研究和思考。
从我们的角度来看,奇点始于两个世纪前的工业革命(Shalizi, 2010 年),而且它比任何人可能知道的都要*混乱*和*多样*得多。现代社会科学是过去其所带来的巨大冲击的产物(Tilly, 1984; Nelson, 待发表)。现在,他们需要与计算机科学和相关学科(科学与技术研究;传播学)合作,去描绘最好被理解为长工业革命另一阶段的状况。人工智能*可能*被证明非常重要,但方式与我们继承的神话所暗示的截然不同。
我们在与 Alison Gopnik 和 James Evans 进行的持续合作研究(Farrell 等, 2025 年)基础上进行阐述,该研究认为,将“大模型”视为正在形成的自主动机主体是一种范畴错误。相反,将它们理解为“文化”(Yiu, Kosoy 和 Gopnik, 2024 年)和“社会”技术更为恰当,一方面类似于图书馆和语言,另一方面类似于市场和官僚机构。在这里,我们专注于如何研究这些技术对人类社会的后果,强调社会而非文化方面。我们特别强调人工智能是一种*社会技术*,即重组人类之间社会关系的系统性手段(Therborn, 1978 年)。早期的社会技术不仅包括其他信息技术,还包括治理制度,如官僚机构、市场,甚至民主制度(Farrell, 2025 年)。我们将重点讨论 LLMs 而非其他 AI 系统。这淡化了现代人工智能的一些重要方面(例如,其在蛋白质折叠等 straightforward 科学问题中的应用),但有助于突出与其他社会技术的联系。
简而言之:LLMs 在其用户和训练语料库中文本的作者之间创建社会关系。如果拥有对模型和语料库的正确访问权限,人们可以从系统输出追溯到单个源文本及其作者(Grosse 等, 2023 年)。这些社会关系是机械中介的,给用户一种他们只在与机器互动而不是与一群人互动的错觉。但中介的社会关系及其错觉是现代生活的常见事实。LLMs 创建的社会关系反过来又跨越并与其他社会关系互动,包括由其他社会技术塑造的关系。
我们的目标在这里是清理出一个共同的空间,让社会科学、计算机科学和工程学可以在其中讨论人工智能的社会后果。我们大量借鉴了 Simon(1996 年)的思想,他将人工智能、政治学、行政管理、经济学、计算机科学和认知心理学视为“人造科学”的诸多分支,研究人类如何创造“人工制品”来建模并作用于他们的环境。从这个角度来看,AI 模型是“复杂信息处理”(Newell 和 Simon, 1956 年)的另一种手段。正如 Simon 所强调的,这类系统既包括计算机科学家和工程师研究和构建的信息技术,*也*包括市场、官僚机构以及(尽管 Simon 本人并未强调这一点)民主等社会信息系统(Lindblom, 1965 年)。所有这些系统都通过将复杂的现实简化为更易于处理的“粗粒度化”或抽象来加工信息,这些抽象( hopefully)捕捉了数据的重要特征。产生粗粒度化并不是大规模社会机构所做的*全部*事情,但这非常重要。如果复杂的社会关系没有被压缩成可见的、易于处理的表征,经济、行政和政治协调根本无法在大尺度上运作。
这就为新技术(如 AI)与现有社会系统之间的碰撞打开了一种不同的视角。正如 DeDeo(2017 年)所建议的,我们迫切地发现新的 AI 粗粒度化如何与现有的抽象相互作用,人类通过这些抽象来简化本质上复杂的世界以使其易于处理。AI 和较旧的社会技术都是信息处理的形式。我们应该调查前者如何在不同程度上加强、重塑或取代后者。
在本文的其余部分,我们简要地将 AI 置于长工业革命的历史背景中。接下来,我们探讨社会技术与粗粒度化或抽象之间的关系,强调它们的有损性及其对不同社会群体间权力关系的后果。这使我们既能描述实际存在的 AI 的明显优势和局限,又能开始将 Simon 的思想应用于 AI 与官僚机构的交叉点。官僚机构是一种至关重要、古老的社会技术,在 Simon 的工作中发挥了核心作用。其与 AI 的关系是当前紧迫的话题:关于 AGI 的主张似乎是对特朗普政府大幅削减行政国家的影响之一。我们将这些观点与我们的观点进行对比,以引出由 AGI 驱动的猜测所省略或忽略的许多重要问题和难题。与其期望 AGI 解决人类社会组织的 perennial 问题,我们应将 AI 视为一种新的社会技术,它将缓解一些问题,加剧另一些问题,并创造新的问题,就像过去的其他社会技术所做的那样。这反过来又表明了社会科学家和计算机科学家之间合作的紧迫性,以弄清楚其社会后果,以及更广泛的社会和政治协调,类似于长工业革命以前阶段发生的事情。
### 粗粒度化与长工业革命
我们从与许多现有评论不同的观点出发,看待 AI 与社会之间的关系。科学与技术研究(STS)的学者往往更感兴趣于科学和技术系统如何反映更广泛的社会和政治权力关系(或发展出它们自己的关系),而不是为他们的论点提供详细的社会科学微观基础。相比之下,主导 AI 内部辩论的“理性主义”完全是微观基础至上。它始于这样一个假设:人类与 AI 代理之间的关系可以通过理性贝叶斯代理之间战略竞争的微观层面透镜来理解,并且最近才开始系统地思考随着这些系统的扩展,集体现象可能会如何涌现(Hammond 等, 2025 年)。
Herbert Simon 的知识项目与两者都不同。他的工作为较大社会制度的描述提供了微观基础,这些基础明确植根于个人人类理性的“界限”(Simon, 1957 年)。Simon 提出,大规模社会技术的出现源于有限的人类构建集体安排以映射和管理复杂世界的需求。Simon 一贯的主题是,人类居住和重塑的复杂环境与他们理解它的有限信息处理能力之间的不匹配。在此,Simon 的观点部分与杜威对民主的理解相契合(Farrell 和 Han, 2025 年)。新古典经济学倾向于平滑环境的复杂性,并假设个人人类拥有无限的计算能力来建模并找到其问题的最优解决方案。这些假设在数学上方便且极不现实。从 Simon 的角度来看,人类通常必须满足(satisfice)而非优化——满足于“足够好”的解决方案,而不是可能的最佳解决方案。简单的心理启发式方法可以帮助发现此类解决方案。能够引导许多 individually limited minds 的知识生产和收集的社會制度也是如此,引导注意力并协调复杂的任务。当然,制度可能会产生意想不到的复杂性,这些复杂性反过来必须得到管理。
Simon 的论点可以用复杂性科学中关于“粗粒度化”的最新文献来重新表述。粗略地说,粗粒度化是对某些复杂现象的精简表示,旨在捕捉其关键方面和动态。它们无处不在,因为没有科学模型、有机体或人工制品能够真正掌握其环境的全部细节。它们处理的不是物理现实的分子混沌,而是抽象的、压缩的和选择性的摘要,忽略大多数细节。在这种意义上,粗粒度化不仅包括复杂的数学模型、经济和湍流天气系统的统计近似值,以及例如互联网的“模糊 JPEG”(Chiang, 2023 年),还包括许多社会动物(包括人类)用来追踪社会结构和关系的个体和集体表征。例如,猕猴通过交换服从信号在猴群内维持对权力关系的粗略共识,这可以合理地理解为一种粗粒度化(Flack, 2017 年)。这种共识大致映射了对哪些猕猴能够在打斗中击败其他猕猴的预期,从而允许“个体做出预测,而不需要无限期地存储其互动的所有细节”,并因此指导他们战斗或服从的决定。僧鹦鹉对其同类关系的表征更为粗糙(DeDeo, 2017 年)。相比之下,人类可以形成更复杂的粗粒度化,即使没有更大的机构,也得益于专门的认知模块(Boyer, 2018 年)和社会惯例如八卦(Origgi, 2017 年),这使我们能够追踪,例如,不断变化的联盟关系。
然而,这种小口径的表征对于现代社会来说是 hopeless 地不足的,现代社会需要非人格化的社会和信息技术,以在非常大的规模上总结社会关系。我们不再需要在紧密的狩猎采集社区中追踪少数个体,在那里每个人都彼此熟悉,甚至在一个村庄或城镇,我们需要管理可能同时涉及数百万甚至数十亿人的互动。建立和改进实现这一目标的手段涉及发展能够处理相对非人格化关系的制度,如市场、官僚机构,甚至民主,使用使这些关系易于理解的粗粒度化。
因此,要理解 AI 如何重塑社会,我们可以开始将 AI 视为一种新颖的社会技术,像其他所有技术一样依赖粗粒度化,并调查它如何与现有的社会技术相互作用。这将有关 AI 的辩论与有关长工业革命的较旧辩论整合在一起。经济历史学家已经记录了在过去几个世纪中,人类大规模生产能力的转变是如何通过蒸汽动力和电力等“通用技术” facilitated 的。虽然许多学者询问 AI 是否也是一种通用技术,但他们较少关注工业革命的制度方面;最突出的是,人类*组织经济、社会和政治生活*能力的深刻转型,这使得新的生产技术成为可能。
正如 STS 学者一致强调的那样(Yates(1993 年)在这方面尤为
相似文章
## 语言适应:随着语言模型成为社会不可或缺的一部分
文章认为,随着基于LLM的AI变得无处不在,语言应当适应这一变化,为AI创造新的代词,因为无论是人称代词("他/她")还是非人称的"它",都无法准确反映与具备语言能力的非人类实体之间的独特关系。
面向现实世界的人工智能:与Yann LeCun的对话(12分钟阅读)
Yann LeCun认为,大型语言模型缺乏真正的智能,因为它们不理解物理世界;他主张开发能够学习因果关系并为现实世界应用提供规划的“世界模型”。
AI之长,AGI之短(3分钟阅读)
本文认为,AI智能正变得像计算和存储一样商品化,最有价值的公司将不是模型构建者,而是那些拥有客户关系、专有数据和工作流程的公司。
我曾是人工智能的忠实信徒。现在我认为整个行业正在从内部腐烂。
一位前AI倡导者详细阐述了对大语言模型的幻灭,指出可靠性问题、版本间退化、企业工作流崩溃,以及部署在关键行业的AI系统缺乏问责制。
AI可能重塑机构而非取代工作
文章认为,下一场重大AI辩论应聚焦于代表性和机构架构,提出三个层次(感知、核心、驱动)来应对AI系统如何捕获现实、推理及合法行动的问题,而非仅仅模拟智能。