EdgeDetect:用于联邦入侵检测的重要性感知梯度压缩与同态聚合

Hugging Face Daily Papers 论文

摘要

# 论文页面 - EdgeDetect:用于联邦入侵检测的重要性感知梯度压缩与同态聚合 来源:[https://huggingface.co/papers/2604.14663](https://huggingface.co/papers/2604.14663) ## [https://huggingface.co/papers/2604.14663#edgedetect-importance-aware-gradient-compression-with-homomorphic-aggregation-for-federated-intrusion-detection](https://huggingface.co/papers/2604.14663#edgedetect-importance-aware-gradient-compression-fo

联邦学习(FL)使得在不交换原始数据的情况下进行协同入侵检测成为可能,但传统联邦学习因全精度梯度传输带来高昂的通信开销,且易遭受梯度推理攻击。本文提出了 EdgeDetect,一种面向带宽受限的 6G-IoT 环境的通信高效且注重隐私保护的联邦入侵检测系统(IDS)。EdgeDetect 提出了一种名为“梯度精简(gradient smartification)”的技术,这是一种基于中值的统计二值化方法,将本地更新压缩为 {+1, -1} 形式,在维持收敛性的同时使上行数据传输量减少 32 倍。此外,我们在二值化梯度上进一步集成了 Paillier 同态加密技术,以防范“诚实但好奇”的服务端服务器,同时避免泄露单个客户端的更新数据。在 CIC-IDS2017 数据集(包含 280 万条流量样本和 7 类攻击)上的实验表明,该方法达到了 98.0% 的多分类准确率和 97.9% 的宏平均 F1 分数,性能与集中式基线持平;同时将每轮通信量从 450~MB 降至 14~MB(降低 96.9%)。在 Raspberry Pi-4 上的部署验证了其边缘侧可行性:内存占用约 4.2~MB,延迟仅 0.8~ms,单次推理能耗为 12~mJ,且准确率损失小于 0.5%。在面对 5% 的数据投毒攻击及严重类别不平衡时,EdgeDetect 仍能保持 87% 的准确率和 0.95 的少数类 F1 分数(p<0.001),为下一代边缘入侵检测建立了一个兼顾准确性、通信效率与隐私保护的实用型平衡方案。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 07:21

论文页面 - EdgeDetect:面向联邦入侵检测的重要性感知梯度压缩与同态聚合

Source: https://huggingface.co/papers/2604.14663

https://huggingface.co/papers/2604.14663#edgedetect-importance-aware-gradient-compression-with-homomorphic-aggregation-for-federated-intrusion-detectionEdgeDetect:面向联邦入侵检测的重要性感知梯度压缩与同态聚合

**作者:**Noor Islam S. Mohammad **机构:**伊斯坦布尔技术大学计算机系,Maslak, TR 邮箱:[email protected] **arXiv:**2604.14663v1 [cs.CR] **日期:**2026年4月16日


https://huggingface.co/papers/2604.14663#abstract[摘要]

联邦学习(FL)使得在不交换原始数据的情况下实现协作式入侵检测成为可能,但传统 FL 因全精度梯度传输而产生高昂的通信开销,并且仍易受梯度推理攻击。本文提出了EdgeDetect,这是一种面向带宽受限的 6G-IoT 环境、兼顾通信效率与隐私保护的联邦入侵检测系统。

EdgeDetect 引入了梯度智能量化(gradient smartification),这是一种基于中位数的统计二值化方法,将本地更新压缩为 {+1, -1} 表示形式,在保持收敛性的同时将上行载荷降低32 倍。我们进一步在二值化梯度的基础上集成了 Paillier 同态加密,以防范“诚实但好奇”的服务器,同时避免暴露单个客户端的更新内容。

关键结果:

  • 在 CIC-IDS2017 数据集(280 万流量样本,7 类攻击)上实现98.0% 的多分类准确率97.9% 的宏观 F1 分数
  • 96.9% 的通信开销降低(每轮从 450 MB 降至 14 MB)
  • 树莓派 4 部署:仅需 4.2 MB 内存,0.8 ms 延迟,每次推理功耗 12 mJ,准确率损失小于 0.5%
  • 鲁棒性:在 5% 的投毒攻击下仍保持 87% 的准确率,少数类 F1 分数达 0.95(p < 0.001)

**索引词:**PPFL、IDS、边缘计算、6G 安全、物联网网络、通信效率、机器学习


https://huggingface.co/papers/2604.14663#1-introduction[引言]

下一代无线技术(5G、6G、IoT)在实现海量机器类型通信的同时,也扩大了复杂网络威胁的攻击面。传统的集中式 IDS 面临以下挑战:

  • 可扩展性瓶颈
  • 通信延迟高
  • 单点故障风险
  • 难以处理高维数据和严重的类别不平衡问题

联邦学习虽能缓解上述问题,但仍面临两大核心挑战:

  1. 通信开销——高维梯度向量消耗大量带宽
  2. 梯度泄露——共享的更新内容可能被逆向工程还原出敏感的原始训练样本

https://huggingface.co/papers/2604.14663#contributions[主要贡献]

https://huggingface.co/papers/2604.14663#1-alignment-aware-federated-ids-architecture1.对齐感知的联邦 IDS 架构

  • 面向 6G-IoT 的隐私保护型联邦入侵检测框架
  • 集成基于 PCA 的降维、均衡采样策略与安全聚合机制
  • 实现无需共享原始网络流量的协作式学习

https://huggingface.co/papers/2604.14663#2-adaptive-median-based-gradient-smartification-with-encrypted-aggregation2.基于自适应中位数的梯度智能量化与加密聚合

  • 基于统计特性的自适应中位数阈值二值化策略
  • 将梯度压缩至 {+1, -1},同时保持方向一致性
  • 结合 Paillier 同态加密技术
  • 实现最高 32 倍的通信缩减,有效缓解梯度反转风险

https://huggingface.co/papers/2604.14663#3-quantified-privacyutilityefficiency-trade-off3.隐私-效用-效率权衡的量化评估

  • 开展广泛的消融实验与对抗性分析
  • 通信开销降低 96.9% 的情况下,多分类准确率达 98.0%
  • 性能可与集中式基线模型相媲美
  • 提供密码学级别的隐私保障
  • 即使存在 20% 的恶意客户端,仍能保持 >85% 的准确率
  • 将梯度反演 PSNR 从 31.7 dB 降低至 15.1 dB

https://huggingface.co/papers/2604.14663#4-edge-validated-deployment4.边缘端实际部署验证

  • 在树莓派 4 上进行真实世界部署
  • 内存占用仅 4.2 MB,延迟低至 0.8 ms
  • 每次推理功耗 12 mJ,准确率下降不足 0.5%
  • 充分验证了其在资源受限的 6G-IoT 环境中的适用性

https://huggingface.co/papers/2604.14663#2-related-work[相关工作]

https://huggingface.co/papers/2604.14663#a-deep-learning-based-anomaly-detection[A. 基于深度学习的异常检测]

  • 采用 CNN-RNN 与 LSTM 架构进行 DDoS 与零日攻击检测
  • 将时序流量转换为图像编码以提取空间特征
  • 对于结构化特征,SVM 与随机森林仍具有较强竞争力

https://huggingface.co/papers/2604.14663#b-federated-learning-in-iot-networks[B. 物联网网络中的联邦学习]

  • 实现无需共享原始数据的去中心化训练
  • 应用场景涵盖 IoT 安全、工业传感器网络及跨域入侵检测
  • “边缘-云”协同架构可降低响应延迟
  • 挑战在于标准 FL(如 FedAvg)依赖全精度梯度交换

https://huggingface.co/papers/2604.14663#c-privacy-preservation-and-gradient-compression[C. 隐私保护与梯度压缩]

  • **差分隐私(DP)同态加密(HE)**可提升数据机密性
  • 高效通信方法包括 signSGD 与梯度稀疏化
  • 目前较少方法能联合优化梯度压缩与加密聚合过程

https://huggingface.co/papers/2604.14663#d-distinction-from-signsgd-and-quantized-fl[D. 与 signSGD 及量化 FL 的区别]

与固定阈值量化器(QSGD, TernGrad)不同:

  • 客户端自适应阈值可动态适应梯度分布
  • 保留梯度向量内的相对顺序
  • 利用 IDS 模型中典型的长尾分布特性

https://huggingface.co/papers/2604.14663#3-system-architecture[系统架构]

https://huggingface.co/papers/2604.14663#protocol-flow[协议流程]

EdgeDetect 由 K 个资源受限的边缘客户端和一个中央聚合服务器组成。

https://huggingface.co/papers/2604.14663#phase-1-client-side-local-training[阶段一:客户端本地训练]

W_{i}^{(r+1)} = W_{i}^{(r)} − η∇L(W_{i}^{(r)}, D_i)
Δ_{i}^{(r)} = W_{i}^{(r+1)} − W^{(r)}

https://huggingface.co/papers/2604.14663#phase-2-gradient-smartification[阶段二:梯度智能量化]

θ_i = median(|Δ_{i}^{(r)}|)
Δ^{bin}_{i,j} = +1  if Δ_{i,j} ≥ θ_i
                -1  otherwise

https://huggingface.co/papers/2604.14663#phase-3-privacy-preserving-encryption[阶段三:隐私保护加密]

C_{i}^{(r)} = E(Δ^{bin}_{i})  # Paillier 加密

https://huggingface.co/papers/2604.14663#phase-4-secure-aggregation-and-global-update[阶段四:安全聚合与全局更新]

Δ^{bin}_{agg} = (1/|S_r|) × Σ D(C_{i}^{(r)})
W^{(r+1)} = W^{(r)} + α · Δ^{bin}_{agg}

https://huggingface.co/papers/2604.14663#4-methodology[方法论]

https://huggingface.co/papers/2604.14663#a-data-exploration-and-preprocessing[A. 数据探索与预处理]

CIC-IDS2017 数据集:

  • 包含 79 个特征的 2,830,743 条记录
  • 剔除 308,381 行重复数据
  • 缺失/无穷值占比 0.06%(使用中位数填充)
  • 通过数值类型降级节省 47.5% 内存
  • 缓解严重类别不平衡问题:采用 20% 分层抽样

https://huggingface.co/papers/2604.14663#b-feature-engineering-and-selection[B. 特征工程与选择]

https://huggingface.co/papers/2604.14663#temporal-features[时间特征]

Δt_mean = (1/(n-1)) × Σ(t_i − t_{i-1})
Δt_std = √[(1/(n-1)) × Σ(Δt_i − Δt_mean)²]

https://huggingface.co/papers/2604.14663#entropy-based-features[基于熵的特征]

H(S) = −Σ p(s) log₂ p(s)

捕捉数据包尺寸的分布随机性。

https://huggingface.co/papers/2604.14663#feature-selection[特征选择]

  • 使用基于随机森林置换重要性的递归特征消除(RFE)
  • 排序公式:I_j = (1/T) × Σ I(f_t(D) ≠ f^{-j}_t(D))

https://huggingface.co/papers/2604.14663#c-dimensionality-reduction-via-incremental-pca[C. 通过增量 PCA 进行降维]

Cov(Z) = (1/(n-1)) × Z^T Z = V Λ V^T
Z_PCA = Z V_k

结果:主成分数量从 78 降至 35,在保留99.3% 方差的同时将特征维度降低 55%。

https://huggingface.co/papers/2604.14663#d-class-balancing-strategies[D. 类别平衡策略]

https://huggingface.co/papers/2604.14663#binary-classification[二分类任务]

  • 随机欠采样:D_bal = D_min ∪ Sample(D_max, |D_min|)
  • 结果:生成 15,000 个平衡样本(7,500 正常,7,500 攻击)

https://huggingface.co/papers/2604.14663#multi-class-classification[多分类任务]

  • SMOTE:x_new = x_i + λ(x_{ij} − x_i),其中 λ ~ U(0, 1)
  • 自适应 SMOTE:λ ~ Beta(α, β),其中 α = 1 + ρ_i,β = 1 + (1 − ρ_i)

https://huggingface.co/papers/2604.14663#e-machine-learning-models[E. 机器学习模型]

模型配置
逻辑回归(弹性网)α = 0.01, ρ = 0.5
支持向量机(RBF 核)γ = 0.001, C = 1.0
随机森林T = 100 棵树,最大深度 20
梯度提升树ν = 0.1
神经网络(MLP)结构 35 → 128 → 64 → K,dropout=0.5,Adam 优化器

https://huggingface.co/papers/2604.14663#f-evaluation-metrics[F. 评估指标]

  • 准确率、精确率、召回率、F1 分数
  • Matthews 相关系数(MCC)
  • Cohen’s Kappa (κ)
  • ROC 曲线下面积(AUC-ROC)

https://huggingface.co/papers/2604.14663#5-experimental-setup[实验设置]

https://huggingface.co/papers/2604.14663#a-dataset-construction-and-sampling-validation[A. 数据集构建与抽样验证]

CIC-IDS2017 抽样情况:

  • 原始数据:N = 2,830,540 条流量
  • 20% 分层子集:n = 504,472
  • Kolmogorov–Smirnov 检验:p > 0.05(无显著偏离)
  • 92% 的特征平均偏差 <5%
  • 经 PCA 后:k = 35 个主成分(保留 99.3% 方差)

训练集-测试集划分:

  • 80:20 分层划分(随机种子 42)
  • 二分类:15,000 个样本(7,500 正常,7,500 攻击)
  • 多分类:通过 SMOTE 生成 35,000 个样本(每类 5,000 个)

https://huggingface.co/papers/2604.14663#b-hyperparameter-optimization[B. 超参数优化]

配置方案:

  • 配置 1(效率优先):侧重计算效率
  • 配置 2(表达能力优先):通过 3 折网格搜索最大化准确率

关键超参数:

  • 逻辑回归:C ∈ {0.1, 100}
  • SVM:RBF 核函数,γ = 0.1
  • 随机森林:n_estimators ∈ {100, 200},max_depth=20
  • 决策树:max_depth ∈ {6, 10, 15}
  • KNN:k ∈ {3, 5, 7}

https://huggingface.co/papers/2604.14663#c-evaluation-protocol[C. 评估协议]

https://huggingface.co/papers/2604.14663#stage-1-cross-validation[阶段一:交叉验证]

  • 在训练集划分(n = 12,000)上执行 5 折分层交叉验证
  • 分层策略保持 50:50 的正常与攻击样本比例
  • 折间波动性:σ_CV = √[(1/(K-1)) × Σ(Acc_i − Acc̄)²]

https://huggingface.co/papers/2604.14663#stage-2-hold-out-testing[阶段二:留置测试]

  • 使用最优配置在全量训练集上重新训练模型
  • 在留置测试集(n = 3,000,占 20%)上进行评估
  • 评估指标:准确率、精确率、召回率、F1 分数、ROC-AUC、混淆矩阵

https://huggingface.co/papers/2604.14663#statistical-reliability[统计可靠性]

  • 三次独立随机实验,种子分别为 42、123、456
  • 95% 置信区间:CI_95% = x̄ ± 1.96 × (σ/√n)

https://huggingface.co/papers/2604.14663#6-experimental-results[实验结果]

https://huggingface.co/papers/2604.14663#a-binary-classification-performance[A. 二分类性能表现]

https://huggingface.co/papers/2604.14663#linear-models[线性模型]

  • 逻辑回归:92.21% 准确率(σ = 5.81 × 10⁻³)
  • 配置 2 优化后提升至 92.51%(+0.30%)

https://huggingface.co/papers/2604.14663#kernel-based-methods[基于核的方法]

  • SVM(线性核):83.00%(欠拟合)
  • SVM(RBF 核):96.14%(+13.14%,σ = 3.89 × 10⁻³)

https://huggingface.co/papers/2604.14663#tree-based-ensembles[基于树的集成模型]

  • 随机森林(配置 1):95.98%
  • 随机森林(配置 2):98.09%(+2.11%,σ = 1.72 × 10⁻³)✓最佳

https://huggingface.co/papers/2604.14663#instance-based-learning[基于实例的学习]

  • KNN(k=5):97.40%(σ = 0.89 × 10⁻³)
  • KNN(k=3):97.93%(+0.53%,σ = 1.27 × 10⁻³)

https://huggingface.co/papers/2604.14663#b-multi-class-classification-performance[B. 多分类性能表现]

模型CV 准确率测试准确率精确率召回率F1 分数
随机森林 (T=10, d=6)96.0±0.00997.196.997.096.9
随机森林 (T=15, d=8, m=20)98.0±0.00798.097.998.097.9
决策树 (d=10)96.0±0.01290.390.190.290.1
KNN (k=7, distance-weighted)94.0±0.01495.295.095.395.1

https://huggingface.co/papers/2604.14663#c-per-class-breakdown-random-forest-config-2[C. 各类别详细表现(随机森林配置 2)]

攻击类别精确率召回率F1 分数
BENIGN99.2%98.5%98.9%
DoS98.8%99.0%98.9%
DDoS98.6%98.9%98.7%
Port Scan95.7%97.6%96.6%
Brute Force95.1%97.5%96.3%
Web Attack91.9%96.0%93.9%
Bot90.2%95.3%92.7%

https://huggingface.co/papers/2604.14663#7-federated-learning-convergence-analysis[联邦学习收敛性分析]

https://huggingface.co/papers/2604.14663#a-convergence-and-compression-trade-off[A. 收敛性与压缩权衡]

EdgeDetect 在压缩 32 倍的情况下实现了与全精度 FedAvg相当的收敛水平

  • 覆盖 280 万 CIC-IDS2017 样本
  • 无明显准确率下降(Δ < 0.2 个百分点)
  • 余弦相似度:0.87 ± 0.04

https://huggingface.co/papers/2604.14663#b-privacy-enhancement-through-smartification[B. 智能量化带来的隐私增强]

方法技术PSNR (dB)标签恢复程度
FedAvg (无防御)31.7高保真还原
signSGD零阈值16.8部分恢复
EdgeDetect中位数阈值15.114.3%(随机水平)

https://huggingface.co/papers/2604.14663#c-theoretical-convergence-analysis[C. 理论收敛性分析]

引理 1(中位数阈值智能量化下的下降性质): 假设损失函数 L(W) 是 L-平滑且有下界的。令 g̃_t 表示智能量化后的梯度,其余弦相似度满足 cos(θ_t) = ⟨g_t, g̃_t⟩ / (∥g_t∥ ∥g̃_t∥) ≥ γ > 0。

当学习率 η 足够小时:

E[L(W_{t+1})] ≤ L(W_t) − ηγ∥g_t∥² + (Lη²/2)∥g̃_t∥²

定理 1(有界方差下的收敛性): 假设随机梯度方差 σ² 有界,且余弦相似度 γ > 0。则在 T 轮迭代后:

min_{t≤T} E[∥∇L(W_t)∥²] = O(1 / (γ√T))

https://huggingface.co/papers/2604.14663#8-federated-learning-scalability[联邦学习扩展性]

https://huggingface.co/papers/2604.14663#a-convergence-under-different-heterogeneity-levels[A. 不同异构水平下的收敛性]

数据分布客户端数 K=50R95R98准确率带宽
IIDFedAvg14228798.2%129.15 GB
EdgeDetect14528998.0%4.05 GB
Non-IID (α=1.0)FedAvg20142396.4%190.35 GB
EdgeDetect19239896.8%5.57 GB
Non-IID (α=0.1)FedAvg31268793.8%309.15 GB
EdgeDetect28761294.2%8.57 GB
EdgeDetect+FedProx26456395.1%7.88 GB

https://huggingface.co/papers/2604.14663#b-scalability-with-number-of-clients[B. 客户端数量扩展性]

客户端数 KIID 分布R98准确率总带宽
10IID20198.1%2.8

相似文章

使用梯度指纹检测和抑制奖励黑客攻击

arXiv cs.CL

本文介绍了梯度指纹(Grift)方法,用于在具有可验证奖励的强化学习中检测奖励黑客攻击。该方法通过分析模型内部梯度计算而非表面推理迹象来工作。在数学、代码和逻辑推理基准上,隐式奖励黑客攻击的检测相对改进超过25%。

在日用设备上启用隐私保护型 AI 训练

MIT News — Artificial Intelligence

麻省理工学院研究人员开发了一种名为 FTTE 的新框架,将隐私保护型联邦学习的速度提升了 81%,使得在智能手表和传感器等资源受限的边缘设备上高效进行 AI 训练成为可能。