@iotcoi:OpenAI 训练了完美 LLM,让 OpenAI 自己都看不到数据 openai/privacy-filter Apache 2.0,1B 参数 MoE,本地运行 我的……

X AI KOLs Timeline 模型

摘要

OpenAI 发布 10 亿参数 Apache-2.0 MoE 模型,可在任何 LLM 接收前自动脱敏,实现完全本地、零泄露的工作流。

OpenAI 训练了完美 LLM,让 OpenAI 自己都看不到数据 openai/privacy-filter Apache 2.0,1B 参数 MoE,本地运行 我的整个栈都跑在 localhost:privacy-filter → LLM → privacy-filter 姓名 → [PERSON] Stripe 密钥、IBAN → 全部蒸发 LLM 从未见过,自然无法泄露
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/23 13:07

OpenAI 训练出了完美的 LLM,用来对 OpenAI 自己隐藏数据
openai/privacy-filter Apache 2.0,1B 参数 MoE,本地运行

我的整套栈都跑在 localhost:
privacy-filter → LLM → privacy-filter

姓名 → [PERSON]
Stripe 密钥、IBAN → 全部蒸发

LLM 永远不会泄露它从未见过的东西

相似文章

OpenAI 隐私过滤模型

Reddit r/LocalLLaMA

OpenAI 悄悄在 Hugging Face 发布了一款 Apache-2.0 授权的隐私过滤模型,权重完全开放,旨在帮用户在本地运行隐私保护过滤器的同时,仍享受大实验室级别的质量。

openai/privacy-filter

Hugging Face Models Trending

OpenAI 发布了 Privacy Filter,这是一个包含 15 亿参数的双向令牌分类模型,用于检测和处理个人身份信息(PII)。该模型采用 Apache 2.0 许可证,并支持长上下文,以实现高通量的数据清理。

介绍 OpenAI Privacy Filter

OpenAI Blog

OpenAI 发布了 Privacy Filter,这是一个开放权重模型,旨在高效且具有上下文感知地检测和编辑文本中的个人身份信息(PII)。