Skip to content

RNN

思考:

  • 为什么 RNN 无法并行计算?
  • 对于一本书,RNN 真的能记住第一章写了什么吗?
  • 如何通过“门”来控制哪些记忆该保留,哪些该丢弃?

BiLSTM

双向长短期记忆网络(BiLSTM)。在阿卡德语翻译任务中提到的一个较新的架构。


评论 #