基于LLM的操纵性政治叙事检测
摘要
一种结合基于提示的过滤和无监督聚类的计算框架,用于从社交媒体帖子中识别操纵性政治叙事聚类,无需预定义类别。
查看缓存全文
缓存时间: 2026/05/15 04:23
论文页面 - 基于LLM的操控性政治叙事检测
来源:https://huggingface.co/papers/2605.14354
摘要
一种结合基于提示的过滤与无监督聚类的计算框架,能够从社交媒体帖子中识别出操控性政治叙事聚类,而无需预定义类别。
我们提出了一种新的计算框架,用于检测和结构化操控性政治叙事。由于政治讨论向社交媒体的转移,这一任务变得愈发重要。其中的主要挑战之一在于区分操控性政治叙事和合法批评。有些帖子还可能在操控性语境中重新框定实际事件。为实现良好的聚类效果,我们首先使用详细的少样本提示(https://huggingface.co/papers?q=few-shot%20prompt)对操控性帖子进行预过滤,该提示结合了已有的竞选叙事与合法批评,以便加以区分。这一提示使推理模型能够分配标签,仅保留操控性叙事帖子用于后续处理。随后,对保留的帖子进行嵌入,并使用UMAP(https://huggingface.co/papers?q=UMAP)降维,再应用HDBSCAN(https://huggingface.co/papers?q=HDBSCAN)来揭示叙事组。这种无监督方法的一大关键优势在于它不依赖于预定义的目标类别列表,因此能够发现新的叙事聚类。最后,使用推理模型来揭示每个聚类背后的叙事。该方法应用于超过120万条社交媒体帖子,通过整合基于提示的过滤(https://huggingface.co/papers?q=prompt-based%20filtering)与无监督聚类(https://huggingface.co/papers?q=unsupervised%20clustering),有效识别出41个不同的操控性叙事聚类。
查看arXiv页面(https://arxiv.org/abs/2605.14354)查看PDF(https://arxiv.org/pdf/2605.14354)GitHub0(https://github.com/SinclairSchneider/manipulative_narrative_detection)添加到收藏(https://huggingface.co/login?next=%2Fpapers%2F2605.14354)
在您的智能体中获取此论文:
hf papers read 2605\.14354
没有最新的CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash
引用此论文的模型0
没有模型链接此论文
请在一个模型的README.md中引用arxiv.org/abs/2605.14354,以便从此页面链接。
引用此论文的数据集0
没有数据集链接此论文
请在一个数据集的README.md中引用arxiv.org/abs/2605.14354,以便从此页面链接。
引用此论文的Space0
没有Space链接此论文
请在一个Space的README.md中引用arxiv.org/abs/2605.14354,以便从此页面链接。
包含此论文的收藏集0
没有收藏集包含此论文
请将此论文添加到一个收藏集(https://huggingface.co/new-collection)中,以便从此页面链接。
相似文章
LLM智能体可预测社交媒体反应但仍不敌文本分类器:基于1511人12万+人格的仿真准确性基准测试
大规模研究发现,LLM智能体以70.7%的准确率预测个人社交媒体反应,却仍落后于简单TF-IDF分类器,凸显其操控风险与政策模拟价值。
默认极化:LLM 内容策展中的推荐偏差审计
本文对 OpenAI、Anthropic 和 Google 的基于 LLM 的内容策展推荐偏差进行了大规模审计,使用了来自 Twitter/X、Bluesky 和 Reddit 数据的 540,000 次模拟选择。研究发现 LLM 系统性地放大极化现象,在毒性处理方面表现出不同的权衡,并显示出显著的政治倾向偏差,倾向于左倾作者,尽管数据集中右倾作者占多数。
叙事景观:映射大语言模型中的叙事倾向
本文介绍了一种名为“叙事景观”的定量框架和可视化工具,用于映射并比较前沿大语言模型的叙事倾向及其稳定性。
轻量级风格一致性分析:用于多媒体内容审核的大语言模型生成文本鲁棒性检测
提出了 LiSCP,一种轻量级的风格一致性分析方法,旨在鲁棒性地检测大语言模型(LLM)生成的文本内容,重点关注在对抗性操纵下特征的稳定性。在域内和跨域检测中取得了优异的性能,并具有显著的鲁棒性。
基于大型语言模型引导的半监督方法用于社交媒体危机数据分类
本文对利用大型语言模型(LLM)引导的半监督学习进行社交媒体危机数据分类进行了实证评估。研究表明,在低资源场景下,LG-CoTrain 的表现优于经典基线模型,并突显了将 LLM 知识迁移至更小、更易部署的模型以支持灾害响应的潜力。