国漫手机壁纸

黄仁勋做梦笑醒!索尼发现GPU不仅训的快、训的准,还不会陷入鞍点

新智元报道来源:arXiv编辑:好困【新智元导读】GPU在深度学习的发展过程中无疑扮演着至关重要的角色,极大加快了模型的训练速度。最近索尼、大阪大学等研究员发现,显卡的好处不止这些,还能提高模型的准确度,只是没人用CPU训练,所以没发现而已!除此之外,使用GPU还可以和SGD一样

NetSmell 出品

  新智元报道

  来源:arXiv

  编辑:好困

  【新智元导读】GPU 在深度学习的发展过程中无疑扮演着至关重要的角色,极大加快了模型的训练速度。最近索尼、大阪大学等研究员发现,显卡的好处不止这些,还能提高模型的准确度,只是没人用 CPU 训练,所以没发现而已!除此之外,使用 GPU 还可以和 SGD 一样跳出鞍点。

  GPU 和 CPU 训练同一个网络,竟然会产生不同的结果?

  炼丹的小伙伴们都知道,深度神经网络的训练通常具有不确定性(uncertainty),这种不确定性可能来源于参数上的随机性、数据噪声或者是硬件相关的问题。

  最近来自索尼、波兰的波兹南密茨凯维奇大学、大阪大学等研究员联合在 arxiv 上传了一篇论文,在研究神经网络不确定性的时候,突然发现由 GPU 引起的不确定性竟然可以提高深度神经网络的精度。

  这种提升是相对于只是用 CPU 来训练神经网络的情况下来说的。 使用 GPU 时,学习误差低于相同 epoch 使用 CPU 训练的模型。

  如果按照这个结论的话,以往认为 GPU 只具有加速功能看来是不够全面的。

  但研究人员还提到一点,就是这项研究结果并不适用于全部的神经网络模型, 只是对于特定的模型才有用, 像自编码器(autoencoder)中就没有观察到这个现象。

  论文地址:https://arxiv.org/pdf/2109.01451.pdf

  论文的实验也是简单粗暴,选几个模型,然后训练看结果,用到的设备硬件包括:

  纯 CPU 设备:

  Intel i5-4590, i7-6800K, i5-7600K, AMDRyzen-5-3600

  带 GPU 的设备:

  Intel i5-7600K + NVIDIA GTX-750Ti

  i5-7600K + GTX-970

  i7-6700K + GTX-1080

  i7-7700K + GTX-1080Ti

  i7-9700 + RTX-2080Ti

  i5-7600K + RTX-2060 super

  AMD Ryzen-5-3600 + RTX-2070 super

  i5-9400 + Titan-RTX

  (没有 30 系空气卡)

  研究人员首先使用 autoencoder 和 MNIST 数据集评估了节点权重初始值和 cuDNN 函数状态的影响。从 12 个不同的随机选择初始值生成的学习曲线,从鞍点逃逸的曲线是很相似的,但损失降低的时间点却各有不同。

  12 个试验中有 11 个产生双相学习曲线(biphasic learning curve),而只有一个产生三相曲线(triphasic curve),表明存在多个不同的鞍点。

  为了评估最终学习结果的差异,对 5000 个训练 batch 中最后 50 个 batch 的学习损失值取平均值,结果表明,从训练条件观察到的变化是随机初始值和 cuDNN 函数的共同作用导致的结果。

  (a)可以看出 12 个值的平均±标准偏差为 0.0074±0.00074;

  (b)当关闭 cuDNN 功能后,也获得相似的结果 0.0079±0.0012;

  (c)在固定初始值的条件下,当 cuDNN 功能开启时,0.0076±0.00035;

  (d)当初始值固定且 cuDNN 功能关闭时,12 次训练的结果相同(0.0073±0)。

  评估硬件架构对训练结果不确定性的影响时,使用固定初始值来消除软件相关的不确定性。从四个不同 CPU 和八个 GPU 得到的结果可以观察到,所有 12 种结构的变化相对较(0.0075±0.00020)。

  除此之外,可以看到 CPU 和 GPU 之间的平均差异很小(CPU 是 0.0076±0.00023;GPU 是 0.0074±0.00017)

  使用 FPSI 数据集对 PredNet 进行训练时,与自编码器相比,PredNet 能够学习高度复杂的视频输入。

  从 12 个不同的随机选择的初始值生成的学习曲线中可以看出,它的波动幅度要比自编码器更加强烈。这可能是由于输入数据主要是来自运动摄像机的第一人称视频,从而导致了场景之间的大量切换。

  与自编码器一样,在 12 次训练中,逃离鞍点的时间点各不相同。

  并且不同初始值和 cuDNN 状态都会影响损失值,其中随机初始值的影响更大。

  预测神经网络 PredNet 由哈佛大学提出,这项 2016 年的研究旨在探索和尝试复制人类大脑皮层的行为。

  PredNet 和 AutoEncoder 的模型架构在复杂性方面非常不同。自编码器的目的是重建图像,而非预测目标值。相比之下,PredNet 具有四个 layer,每层使用卷积 LSTM 的表征神经元组成来预测。

  研究人员得出结论: 虽然机制尚不清楚,但 GPU 硬件似乎有能力提高 DNN 的训练效果。并且 GPU 可以更好地避免鞍点(即困在梯度下降法中的坡底)。

  鞍点虽然是深度学习中无法忽视的一个阻碍,但是在最近关于随机梯度下降优化的相关研究中几乎都被忽略了。为了避免鞍点对学习的抑制,各种与随机梯度下降(SGD)相关的方法被引入到深度学习中。有学者认为,假设输入是非退化的且网络是过度参数化的,SGD 可以在多项式时间内找到 DNN 训练目标的全局极小值。

  SGD 的随机性使深层神经网络能够成功地避免鞍点,但 SDG 也不是唯一能够避免鞍点的工具。GPU 中的不确定性也可以作为避免鞍点的工具。

  最后结论,GPU 特定的计算处理比 CPU 更不确定,硬件衍生的不确定性(通常这种不确定性是不应该存在的,俗称 bug)在某些情况下可能会成功地融入深度神经网络的训练中。

  此外,在大脑相关的计算处理中,这种不确定性可能是一种有趣的现象,它包含大量的不确定性信号来产生新想法来跳出鞍点、产生奇迹等。

  参考资料:

  https://arxiv.org/pdf/2109.01451.pdf

显示余下内容
相关文章:
  1. 信用卡 PIN 码很容易猜测
  2. 神经元簇发能模拟 AI 学习策略
  3. 蜘蛛丝可能根本不具有抗菌性质
  4. 佳能因禁止无墨水打印机扫描被起诉
  5. DeepMind盈利后开始「买买买」!收购机器人模拟平台MuJoCo,全面开源
  6. 分析师:新MacBook Pro搭载自家芯片,苹果利润率更高了
  7. 格芯提交上市申请IPO,筹资约26亿美元
  8. 美股周二:中概股普涨 阿里涨超6% 高途涨逾12%
  9. 搭配自研处理器与安卓12,谷歌新机Pixel 6起价599美元
  10. 摩根士丹利:马斯克有望凭SpaceX成首位万亿美元富豪
  11. 《鱿鱼游戏》助奈飞三季度新增用户翻倍,股价近新高
  12. DOTA 2又上热搜了 为什么这次大家到处刷“猛犸”?
  13. 多位游戏巨头联合希望美国政府监管盗版和作弊网站
  14. Google Play Data Safety开始接受开发者申请:2022年将强制执行
  15. 价格欺诈投诉引发公益诉讼 京东“划线价”格式条款须整改
 

发表回复

您的电子邮箱地址不会被公开。