今天看啥  ›  专栏  ›  机器学习研究组订阅

深度学习框架中的「张量」不好用?也许我们需要重新定义Tensor了

机器学习研究组订阅  · 公众号  · AI  · 2019-02-11 18:23
本文介绍了张量的陷阱和一种可以闪避陷阱的替代方法 named tensor,并进行了概念验证。尽管张量在深度学习的世界中无处不在,但它是有破绽的。它催生出了一些坏习惯,比如公开专用维度、基于绝对位置进行广播,以及在文档中保存类型信息。这篇文章介绍了一种具有命名维度的替代方法 named tensor,并对其进行了概念验证。这一改变消除了对索引、维度参数、einsum 式解压缩以及基于文档的编码的需求。这篇文章附带的原型 PyTorch 库可以作为 namedtensor 使用。PyTorch 库参见:https://github.com/harvardnlp/NamedTensor实现:Jon Malmaud 指出 xarray 项目(http://xarray.pydata.org/en/stable/)的目标与 namedtensor 非常相似,xarray 项目还增加了大量 Pandas 和科学计算的支持。Tongfei Chen 的 Nexus 项目 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照