deep-learning

标签

Cards List
#deep-learning

深度线性网络中的非线性计算

OpenAI Blog · 2017-09-29 缓存

# 深度线性网络中的非线性计算 来源:[https://openai.com/index/nonlinear-computation-in-deep-linear-networks/](https://openai.com/index/nonlinear-computation-in-deep-linear-networks/) `` ``` 1x = tf.placeholder(dtype=tf.float32, shape=[batch_size,784]) 2y = tf.placeholder(dtype=tf.float32, shape=[batch_size,10]) 34w1 = tf.Variable(np.random.normal(scale=np.sqrt(2./784),size=[784,512]).astype(np.float32)) 5b1 = tf.Variable(np.zeros(512,dtype=np.float32)) 6w2 = tf.Variable(np.random

0 人收藏 0 人点赞
#deep-learning

近端策略优化

OpenAI Blog · 2017-07-20 缓存

# 近端策略优化 来源: [https://openai.com/index/openai-baselines-ppo/](https://openai.com/index/openai-baselines-ppo/) OpenAI 我们推出了一类新的强化学习算法——近端策略优化(PPO),其性能与最先进的方法相当或更优,同时实现和调优都要简单得多。由于易用性和良好的性能,PPO 已成为 OpenAI 的默认强化学习算法。[策略梯度

0 人收藏 0 人点赞
#deep-learning

OpenAI Baselines: DQN

OpenAI Blog · 2017-05-24 缓存

# OpenAI Baselines: DQN 来源: [https://openai.com/index/openai-baselines-dqn/](https://openai.com/index/openai-baselines-dqn/) 在将屏幕图像转换为灰度图时,我们对绿色通道的系数标定错误,导致鱼消失了。发现这个bug后,我们调整了色值,算法才能再次识别到鱼。为了在未来调试类似问题,Gym现在包含一个[play⁠\(在新窗口中打开\)](https://gith

0 人收藏 0 人点赞
#deep-learning

策略梯度与软Q学习之间的等价性

OpenAI Blog · 2017-04-21 缓存

# 策略梯度与软Q学习之间的等价性 来源:[https://openai.com/index/equivalence-between-policy-gradients-and-soft-q-learning/](https://openai.com/index/equivalence-between-policy-gradients-and-soft-q-learning/) OpenAI ## 摘要 策略梯度方法和Q学习方法是无模型强化学习中两种主要方法。Q学习方法在有效时样本效率很高,但目前还不太清楚它们为什么能够工作

0 人收藏 0 人点赞
#deep-learning

现实世界中的垃圾邮件检测

OpenAI Blog · 2017-04-01 缓存

OpenAI 演示了域随机化——在模拟训练数据中随机改变颜色、纹理、光照和相机设置——使深度学习模型能够有效地从模拟环境迁移到实际机器人垃圾邮件检测任务,无需从头开始重新训练。

0 人收藏 0 人点赞
#deep-learning

使用时间段模型进行预测和控制

OpenAI Blog · 2017-03-12 缓存

OpenAI 推出了一种使用深度生成模型在时间段上学习复杂非线性系统动力学的方法,能够实现稳定的长期预测和可微分的轨迹优化以进行基于模型的控制。

0 人收藏 0 人点赞
#deep-learning

PixelCNN++:通过离散化逻辑混合似然函数及其他改进增强 PixelCNN

OpenAI Blog · 2017-01-19 缓存

PixelCNN++ 对 PixelCNN 进行了多项架构改进,包括离散化逻辑混合似然函数、下采样和快捷连接,在 CIFAR-10 上取得了最先进的对数似然结果。

0 人收藏 0 人点赞
#deep-learning

OpenAI 和 Microsoft

OpenAI Blog · 2016-11-15 缓存

# OpenAI 和 Microsoft 来源:[https://openai.com/index/openai-and-microsoft/](https://openai.com/index/openai-and-microsoft/) 我们正在与 Microsoft 合作,开始在 Azure 上运行我们的大规模实验。这将使 Azure 成为 OpenAI 用于深度学习和 AI 的主要云平台,并让我们能够进行更多研究并与世界分享结果。加快我们进展的最重要因素之一是获得更多更快的计算机;th

0 人收藏 0 人点赞
#deep-learning

变分有损自编码器

OpenAI Blog · 2016-11-08 缓存

# 变分有损自编码器 来源: [https://openai.com/index/variational-lossy-autoencoder/](https://openai.com/index/variational-lossy-autoencoder/) ## 摘要 表示学习旨在将观测数据的某些方面暴露在学习表示中,这种表示便于分类等下游任务。例如,对于二维图像,一个好的表示可能是只描述全局结构并丢弃有关详细纹理信息的表示。在本文中,我们提出

0 人收藏 0 人点赞
#deep-learning

通过学习深度逆动力学模型实现从仿真到真实世界的转移

OpenAI Blog · 2016-10-11 缓存

# 通过学习深度逆动力学模型实现从仿真到真实世界的转移 来源: [https://openai.com/index/transfer-from-simulation-to-real-world-through-learning-deep-inverse-dynamics-model/](https://openai.com/index/transfer-from-simulation-to-real-world-through-learning-deep-inverse-dynamics-model/) ## 摘要 在仿真环境中开发控制策略通常比直接在真实世界中运行实验更加实际和安全。这适用于从强化学习中获得的策略

0 人收藏 0 人点赞
#deep-learning

深度学习基础设施

OpenAI Blog · 2016-08-29 缓存

OpenAI 分享了他们的深度学习基础设施方法,并开源了 kubernetes-ec2-autoscaler,一个为 Kubernetes 优化的批处理自动扩展管理器,强调基础设施质量如何倍增研究进展。

0 人收藏 0 人点赞
#deep-learning

团队更新

OpenAI Blog · 2016-05-25 缓存

# 团队更新 来源:[https://openai.com/index/team-update/](https://openai.com/index/team-update/) OpenAI 我们很高兴欢迎最新的团队成员加入OpenAI(我们仍在招聘中!)- **Marcin Andrychowicz**。[Marcin⁠\(在新窗口中打开\)](http://www.crypto.edu.pl/andrychowicz)获得了[IOI⁠\(在新窗口中打开\)](https://en.wikipedia.org/wiki/International_Olympiad_in_Informatics#Multiple_IOI_winners)的3枚金牌,一直是编程竞赛的顶级参与者

0 人收藏 0 人点赞
#deep-learning

OpenAI Gym Beta

OpenAI Blog · 2016-04-27 缓存

OpenAI 发布了 OpenAI Gym 公开测试版,这是一个用于开发和比较强化学习算法的工具包,包含不断增长的环境套件和可复现研究的平台。该工具包旨在标准化强化学习基准,并为研究社区提供多样化、易于使用的环境。

0 人收藏 0 人点赞
#deep-learning

Team++

OpenAI Blog · 2016-03-31 缓存

OpenAI 宣布了多位杰出机器学习研究人员和工程师的加入,包括 Ian Goodfellow、Alec Radford 和 Yura Burda 等人在近几个月加入团队。该公告突出了新员工在生成模型、强化学习和深度学习等领域的多样化专业知识和卓越贡献。

0 人收藏 0 人点赞
#deep-learning

权重归一化:加速深度神经网络训练的简单重参数化方法

OpenAI Blog · 2016-02-25 缓存

OpenAI 提出了权重归一化,一种重参数化技术,通过将权重向量的长度与方向解耦,改进神经网络训练的收敛性和计算效率,且不引入小批次依赖关系,适用于循环神经网络和对噪声敏感的应用场景。

0 人收藏 0 人点赞
← Previous
← 返回首页

提交意见反馈