audit-study

标签

Cards List
#audit-study

默认极化:LLM 内容策展中的推荐偏差审计

arXiv cs.CL · 2026-04-20 缓存

本文对 OpenAI、Anthropic 和 Google 的基于 LLM 的内容策展推荐偏差进行了大规模审计,使用了来自 Twitter/X、Bluesky 和 Reddit 数据的 540,000 次模拟选择。研究发现 LLM 系统性地放大极化现象,在毒性处理方面表现出不同的权衡,并显示出显著的政治倾向偏差,倾向于左倾作者,尽管数据集中右倾作者占多数。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈