deep-learning

标签

Cards List
#deep-learning

Aurora:一种针对矩形矩阵的杠杆感知优化器

Lobsters Hottest · 11小时前 缓存

Tilde Research 推出了 Aurora,这是一种新型优化器,旨在在保持正交性的同时防止 MLP 层中的神经元死亡,在 nanoGPT 基准测试中取得了最新成果,并在 1B 模型上实现了 100 倍的数据效率。

0 人收藏 0 人点赞
#deep-learning

@QingQ77: 《动手学深度学习》是很好的入门书,但更新速度已经有些跟不上这个领域的发展。Transformer 之后,CLIP、Diffusion、vLLM 等等内容越来越多,网上资料虽然丰富,却很零散,今天看 Attention,明天学 LoRA,后…

X AI KOLs Timeline · 昨天 缓存

该项目是一个系统化的深度学习笔记仓库,涵盖 PyTorch、Transformer、生成模型等内容,旨在解决学习资料碎片化问题,并提供代码实现与实践指南。

0 人收藏 0 人点赞
#deep-learning

@wsl8297: 加州大学开放课程《大语言模型的强化学习》,用“理论 + 实战”的方式,把 AI 训练的关键技术从零到一讲透,帮你系统建立从强化学习到 LLM 训练的完整框架。 课程内容覆盖全面,配套资源齐全:讲座幻灯片、完整视频、实践练习一应俱全,学完就…

X AI KOLs Timeline · 昨天 缓存

加州大学助理教授Ernest K. Ryu推出《大语言模型的强化学习》开放课程,结合理论与实践全面解析RLHF、PPO/DPO等LLM训练关键技术及配套资源。该课程为开发者与研究者提供了从基础算法到实战部署的系统学习路径。

0 人收藏 0 人点赞
#deep-learning

@ickma2311: 高效AI 第12讲:Transformer 与 LLM 本讲不仅介绍 LLM 的工作原理,还深入讲解其底层构建模块……

X AI KOLs Timeline · 昨天 缓存

一门高效AI课程的第12讲笔记,涵盖 Transformer 与 LLM 基础知识,包括多头注意力机制、位置编码、KV 缓存,以及模型架构与推理效率之间的关联。内容阐释了 Transformer 中的设计选择如何影响内存占用、延迟表现和硬件效率。

0 人收藏 0 人点赞
#deep-learning

@tenderizzation:这简直超出了预期!YOLOv3 回归

X AI KOLs Following · 昨天 缓存

这条社交媒体帖子表达了对 YOLOv3 目标检测模型回归或重新受到关注的兴奋之情。

0 人收藏 0 人点赞
#deep-learning

@yifan_zhang_: Jane Street 是当之无愧的王者。正如 Rohan @_arohan_ 所提到的,优秀的研究人员尊重他人的工作。量化研究…

X AI KOLs Timeline · 昨天 缓存

文章强调了 Jane Street 通过量化研究推动深度学习前沿的贡献,并着重指出优秀研究人员对此类工作的尊重。

0 人收藏 0 人点赞
#deep-learning

@Ai_Tech_tool:Andrej Karpathy 本可以收这门课 2000 美元的。但他将其免费发布在 YouTube 上。涵盖完整训练栈、分词技术……

X AI KOLs Timeline · 昨天

介绍了 Andrej Karpathy 发布的免费三小时 YouTube 课程,内容涵盖大语言模型(LLM)基础,包括分词、神经网络底层原理、RLHF 及强化学习。强调深入理解这些核心架构原理,相比仅仅会调用现成的 AI 工具,能为职业发展带来显著的竞争优势。

0 人收藏 0 人点赞
#deep-learning

@neil_xbt: Andrej Karpathy 本可以收 1000 美元讲授这堂计算机视觉课!他却免费放在了 YouTube 上。这位从零打造 Tesla Autopilot、联合创立 OpenAI 的人,花了多年时间将他在讲解的架构应用于实际,规模之大多数工程师只能从文章里读到。

X AI KOLs Timeline · 2天前

Andrej Karpathy 在 YouTube 免费发布了一堂计算机视觉讲座,涵盖图像描述、定位、分割和迁移学习,内容源于他在 Tesla 和 OpenAI 的生产实践经验。

0 人收藏 1 人点赞
#deep-learning

@tom_doerr:AI、机器学习和大语言模型学习的结构化路线图 https://github.com/bishwaghimire/ai-learning-roadmaps…

X AI KOLs Timeline · 2天前 缓存

一个全面且开源的 GitHub 仓库,提供结构化的学习路线图与精选资源,助力学习者从入门到精通掌握 AI、机器学习、深度学习及大语言模型。该资源面向学生与专业人士设计,内容涵盖基础概念、编程框架、职业发展路径以及前沿 AI 议题。

0 人收藏 0 人点赞
#deep-learning

@tetsuoai: 四十分钟的白板讲解。完整的Transformer架构。然后打开Vim并用C语言编写。

X AI KOLs Timeline · 2天前 缓存

一段40分钟的讲解通过白板图完整介绍了Transformer架构,并演示了如何在Vim中使用C语言进行实际实现。

0 人收藏 0 人点赞
#deep-learning

基于优化深度学习与 LLM 驱动智能 AI 在计算受限系统上进行膝关节骨关节炎严重程度分级

arXiv cs.AI · 2天前 缓存

本文介绍了一种用于分级膝关节骨关节炎严重程度的自动化诊断系统,该系统使用通过 TensorFlow Lite 部署在边缘设备上的优化 ResNet-18 模型。它集成了使用 Gemini 2.0 Flash 的大型语言模型(LLM)接口,在提供结构化解释性发现的同时,保持了在资源受限环境下的离线能力。

0 人收藏 0 人点赞
#deep-learning

用于城市设计的智能监控系统:基于人工智能的十字路口软基础设施分析

arXiv cs.AI · 2天前 缓存

本学术论文介绍了一种基于人工智能的分析框架,利用现有的监控系统基础设施,评估交通软性干预措施对城市十字路口车辆速度和安全性所产生的影响。

0 人收藏 0 人点赞
#deep-learning

通过隐式梯度传输加速基于 LMO 的优化

arXiv cs.LG · 2天前 缓存

本文提出了 LMO-IGT,这是一类新的随机优化方法,它利用隐式梯度传输来加速收敛,同时保持每次迭代仅计算一次梯度的结构。文中引入了一个统一的理论框架,并展示了相较于 Muon 等现有基于 LMO 的优化器,该方法具有更优的性能。

0 人收藏 0 人点赞
#deep-learning

稀疏自编码器中特征饥饿的几何不稳定性

arXiv cs.LG · 2天前 缓存

本文将稀疏自编码器中的特征饥饿识别为一种几何不稳定性,并提出自适应弹性网络 SAE(AEN-SAE)来在不依赖启发式方法的情况下缓解该问题。

0 人收藏 0 人点赞
#deep-learning

基于卷积的深度学习模型量化后的进化微调

arXiv cs.LG · 2天前 缓存

本文提出了一种基于神经进化的微调方法,以提高量化深度学习模型的精度。研究表明,仅使用最近邻舍入是次优的,而在 VGG 和 ResNet 等架构上对权重进行进化变异可获得更好的结果。

0 人收藏 0 人点赞
#deep-learning

通道级语义扰动:面向多样训练范式的不可学习示例

arXiv cs.LG · 2天前 缓存

本文系统研究了不同训练范式下的不可学习示例,揭示了预训练权重会削弱现有方法的效果,并提出浅层语义伪装(SSC)方法,通过在语义有效子空间中生成扰动来维持不可学习性。

0 人收藏 0 人点赞
#deep-learning

@GoodfireAI:神经网络可能说英语,但它们用形状思考。理解它们丰富的*神经几何*是…

X AI KOLs Timeline · 2天前 缓存

Goodfire AI宣布了一项新的研究议程,专注于神经几何,以提升对神经网络的理解、调试和控制。

0 人收藏 0 人点赞
#deep-learning

Transformer中隐式演绎推理的缩放特性

Hugging Face Daily Papers · 5天前 缓存

本研究探讨了带有双向掩码的深度Transformer如何实现与显式思维链方法相媲美的隐式演绎推理。研究表明,算法对齐的模型能够在多种图拓扑结构和问题宽度上扩展推理能力。

0 人收藏 0 人点赞
#deep-learning

解读早期宇宙

NVIDIA Blog · 2026-04-23 缓存

本文介绍了 NVIDIA GPU 和 Morpheus 等 AI 模型如何帮助加州大学圣克鲁兹分校的天文学家处理詹姆斯·韦伯太空望远镜产生的海量数据集,从而加速早期宇宙星系的发现与分类。

0 人收藏 0 人点赞
#deep-learning

我发布了 CTNet:一种将计算视为持久状态演化的架构 [D]

Reddit r/MachineLearning · 2026-04-23

CTNet 提出了一种新型神经网络架构,把计算过程重新定义为持久状态的演化,而非逐层重写,融合了可重入记忆、多尺度一致性和投影式输出。

0 人收藏 0 人点赞
Next →
← 返回首页

提交意见反馈