你好,游客 登录
背景:
阅读新闻

十分钟从 PyTorch 转 MXNet

[日期:2018-04-03] 来源:新智元  作者: [字体: ]

MXNet 作者 / 亚马逊主任科学家 李沐

新智元推荐 

作者:MXNet 作者 / 亚马逊主任科学家 李沐

【新智元导读】PyTorch是一个纯命令式的深度学习框架。它因为提供简单易懂的编程接口而广受欢迎,而且正在快速的流行开来。MXNet通过ndarray和 gluon模块提供了非常类似 PyTorch 的编程接口。本文将简单对比如何用这两个框架来实现同样的算法。

PyTorch是一个纯命令式的深度学习框架。它因为提供简单易懂的编程接口而广受欢迎,而且正在快速的流行开来。例如 Caffe2 最近就并入了 PyTorch。

可能大家不是特别知道的是,MXNet 通过 ndarray和 gluon模块提供了非常类似 PyTorch 的编程接口。本文将简单对比如何用这两个框架来实现同样的算法。

安装

PyTorch 默认使用 conda 来进行安装,例如

而 MXNet 更常用的是使用 pip。我们这里使用了 --pre来安装 nightly 版本

多维矩阵

对于多维矩阵,PyTorch 沿用了 Torch 的风格称之为 tensor,MXNet 则追随了 NumPy 的称呼 ndarray。下面我们创建一个两维矩阵,其中每个元素初始化成 1。然后每个元素加 1 后打印。

  • PyTorch:

  • MXNet:

忽略包名的不一样的话,这里主要的区别是 MXNet 的形状传入参数跟 NumPy 一样需要用括号括起来。

模型训练

下面我们看一个稍微复杂点的例子。这里我们使用一个多层感知机(MLP)来在 MINST 这个数据集上训练一个模型。我们将其分成 4 小块来方便对比。

读取数据

这里我们下载 MNIST 数据集并载入到内存,这样我们之后可以一个一个读取批量。

  • PyTorch:

  • MXNet:

这里的主要区别是 MXNet 使用 transform_first来表明数据变化是作用在读到的批量的第一个元素,既 MNIST 图片,而不是第二个标号元素。

定义模型

下面我们定义一个只有一个单隐层的 MLP 。

  • PyTorch:

  • MXNet:

我们使用了 Sequential容器来把层串起来构造神经网络。这里 MXNet 跟 PyTorch 的主要区别是:

  • 不需要指定输入大小,这个系统会在后面自动推理得到

  • 全连接和卷积层可以指定激活函数

  • 需要创建一个 name_scope 的域来给每一层附上一个独一无二的名字,这个在之后读写模型时需要

  • 我们需要显示调用模型初始化函数。

大家知道 Sequential下只能神经网络只能逐一执行每个层。PyTorch 可以继承 nn.Module来自定义 forward如何执行。同样,MXNet 可以继承 nn.Block来达到类似的效果。

损失函数和优化算法

  • PyTorch:

  • MXNet:

这里我们使用交叉熵函数和最简单随机梯度下降并使用固定学习率 0.1

训练

最后我们实现训练算法,并附上了输出结果。注意到每次我们会使用不同的权重和数据读取顺序,所以每次结果可能不一样。

  • PyTorch

  • MXNet

MXNet 跟 PyTorch 的不同主要在下面这几点:

  • 不需要将输入放进 Variable, 但需要将计算放在 mx.autograd.record() 里使得后面可以对其求导

  • 不需要每次梯度清 0,因为新梯度是写进去,而不是累加

  • step 的时候 MXNet 需要给定批量大小

  • 需要调用 asscalar() 来将多维数组变成标量。

  • 这个样例里 MXNet 比 PyTorch 快两倍。当然大家对待这样的比较要谨慎。

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款