今天看啥  ›  专栏  ›  机器学习算法与自然语言处理

从Encoder到Decoder实现Seq2Seq模型

机器学习算法与自然语言处理  · 公众号  ·  · 2019-08-19 00:00
作者丨天雨粟知乎专栏丨机器不学习地址丨https://zhuanlan.zhihu.com/p/27608348前言好久没有更新专栏,今天我们来看一个简单的Seq2Seq实现,我们将使用TensorFlow来实现一个基础版本的Seq2Seq,主要帮助理解Seq2Seq中的基础架构。最基础的Seq2Seq模型包含了三个部分,即Encoder、Decoder以及连接两者的中间状态向量,Encoder通过学习输入,将其编码成一个固定大小的状态向量S,继而将S传给Decoder,Decoder再通过对状态向量S的学习来进行输出。图中每一个box代表了一个RNN单元,通常是LSTM或者GRU。其实基础的Seq2Seq是有很多弊端的,首先Encoder将输入编码为固定大小状态向量的过程实际上是一个信息“信息有损压缩”的过程,如果信息量越大,那么这个转化向量的过程对信息的损失就越大,同 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照