@iotcoi:OpenAI 训练了完美 LLM,让 OpenAI 自己都看不到数据 openai/privacy-filter Apache 2.0,1B 参数 MoE,本地运行 我的……
摘要
OpenAI 发布 10 亿参数 Apache-2.0 MoE 模型,可在任何 LLM 接收前自动脱敏,实现完全本地、零泄露的工作流。
查看缓存全文
缓存时间: 2026/04/23 13:07
OpenAI 训练出了完美的 LLM,用来对 OpenAI 自己隐藏数据
openai/privacy-filter Apache 2.0,1B 参数 MoE,本地运行
我的整套栈都跑在 localhost:
privacy-filter → LLM → privacy-filter
姓名 → [PERSON]
Stripe 密钥、IBAN → 全部蒸发
LLM 永远不会泄露它从未见过的东西
相似文章
@eliebakouch:@OpenAI 这次发布太棒了!一个总参数量 1.5 B、仅激活 50 M 的 gpt-oss 架构 MoE,能从万亿级数据中廉价滤除隐私信息…
OpenAI 发布 15 亿总参数的 MoE 模型,仅激活 5000 万参数,即可在万亿 token 数据集中过滤隐私信息,同时保持 128 k 上下文长度。
OpenAI 隐私过滤模型
OpenAI 悄悄在 Hugging Face 发布了一款 Apache-2.0 授权的隐私过滤模型,权重完全开放,旨在帮用户在本地运行隐私保护过滤器的同时,仍享受大实验室级别的质量。
@altryne:OpenAI 刚在 HuggingFace 开源了一个 15 亿参数(5000 万活跃)的 Apache 2.0 模型!不是新 LLM,而是……
OpenAI 在 HuggingFace 以 Apache 2.0 协议发布 15 亿参数 PII 检测模型 Privacy Filter。
openai/privacy-filter
OpenAI 发布了 Privacy Filter,这是一个包含 15 亿参数的双向令牌分类模型,用于检测和处理个人身份信息(PII)。该模型采用 Apache 2.0 许可证,并支持长上下文,以实现高通量的数据清理。
介绍 OpenAI Privacy Filter
OpenAI 发布了 Privacy Filter,这是一个开放权重模型,旨在高效且具有上下文感知地检测和编辑文本中的个人身份信息(PII)。