标签
HornetDev 团队发布文章,介绍在 1 亿级别数据下调优近似最近邻搜索,涵盖 embedding 偏差、图连通性与量化上限。
文章指出,AI幻觉其实映射了人类的认知偏差——确认偏误、过度自信等,它们并非纯粹的技术缺陷,而是像人类一样在知识缺口处“脑补”的结果。
# 懂的都懂(但AI不懂):自动内容审核未能捕捉社群对去污名化用语的多元态度 来源:[https://arxiv.org/html/2604.16654](https://arxiv.org/html/2604.16654) Christina Chance [christinachance315@gmail\.com](https://arxiv.org/html/2604.16654v1/mailto:[email protected]) [0000\-0002\-8254\-0670](https://orcid.org/0000-0002-8254-0670) 加州大学洛杉矶分校 洛杉矶 加利福尼亚州 美国 Rebecca Pattichis 独立研究员 Alb
# 评估 ChatGPT 的公平性 来源:[https://openai.com/index/evaluating-fairness-in-chatgpt/](https://openai.com/index/evaluating-fairness-in-chatgpt/) 创建我们的模型需要的不仅仅是数据——我们还精心设计训练流程来减少有害输出并改进实用性。研究表明语言模型仍然可能从训练数据中吸收并重复社会偏见,如性别或种族刻板印象。在这项研究中,我们探索了美国用户名称的微妙线索如何影响
谷歌 DeepMind 的“课堂人工智能”项目向学生讲解数据需求、偏见和大语言模型等基础人工智能概念,旨在通过互动讨论培养未来的问题解决者。