bias

标签

Cards List
#bias

留在房间里的伦理

Reddit r/artificial · 2026-04-22 缓存

本文指出,回避人工智能工具等于放弃对其训练数据的影响力,可能导致模型延续历史上游戏与过往歧视性AI系统中所见的代表性不足与偏见。

0 人收藏 0 人点赞
#bias

@jobergum:你们认识我是 BM25 guy,但 embeddings 也很酷。@HornetDev 团队刚刚发布了新文章,在 1 亿规模下做 ANN 调优……

X AI KOLs Timeline · 2026-04-22

HornetDev 团队发布文章,介绍在 1 亿级别数据下调优近似最近邻搜索,涵盖 embedding 偏差、图连通性与量化上限。

0 人收藏 0 人点赞
#bias

AI幻觉可能比人类更“人性”

Reddit r/artificial · 2026-04-21

文章指出,AI幻觉其实映射了人类的认知偏差——确认偏误、过度自信等,它们并非纯粹的技术缺陷,而是像人类一样在知识缺口处“脑补”的结果。

0 人收藏 0 人点赞
#bias

懂的都懂(但AI不懂):自动内容审核未能捕捉社群对去污名化用语的多元态度

arXiv cs.CL · 2026-04-21 缓存

# 懂的都懂(但AI不懂):自动内容审核未能捕捉社群对去污名化用语的多元态度 来源:[https://arxiv.org/html/2604.16654](https://arxiv.org/html/2604.16654) Christina Chance [christinachance315@gmail\.com](https://arxiv.org/html/2604.16654v1/mailto:[email protected]) [0000\-0002\-8254\-0670](https://orcid.org/0000-0002-8254-0670) 加州大学洛杉矶分校 洛杉矶 加利福尼亚州 美国 Rebecca Pattichis 独立研究员 Alb

0 人收藏 0 人点赞
#bias

评估 ChatGPT 的公平性

OpenAI Blog · 2024-10-15 缓存

# 评估 ChatGPT 的公平性 来源:[https://openai.com/index/evaluating-fairness-in-chatgpt/](https://openai.com/index/evaluating-fairness-in-chatgpt/) 创建我们的模型需要的不仅仅是数据——我们还精心设计训练流程来减少有害输出并改进实用性。研究表明语言模型仍然可能从训练数据中吸收并重复社会偏见,如性别或种族刻板印象。在这项研究中,我们探索了美国用户名称的微妙线索如何影响

0 人收藏 0 人点赞
#bias

在课堂上教授人工智能基础

YouTube AI Channels · 2天前 缓存

谷歌 DeepMind 的“课堂人工智能”项目向学生讲解数据需求、偏见和大语言模型等基础人工智能概念,旨在通过互动讨论培养未来的问题解决者。

0 人收藏 0 人点赞
← 返回首页

提交意见反馈