LSTM(长短期记忆神经网络)

在 RNN(循环神经网络中写道),RNN实际上是把(x1,x2,x3,x4),转为(h1,h2,h3,h4),再转为 Y,如下图所示: 实际上,该网络存在一些问题: 对各个状态没有取舍,h1,h2,h3,h4 我都要,影响了预测效果的同时,还存在梯度爆炸(梯


RNN(循环神经网络)

时序预测任务:当前的输出与前面的输出也有关,即xt = f(xt-1, xt-2......xt-n),f 即时序神经网络 传统RNN:n个输入n个输出、n个输入1个输出