RNN 思考: 为什么 RNN 无法并行计算? 对于一本书,RNN 真的能记住第一章写了什么吗? 如何通过“门”来控制哪些记忆该保留,哪些该丢弃? BiLSTM 双向长短期记忆网络(BiLSTM)。在阿卡德语翻译任务中提到的一个较新的架构。 评论 #