Command Palette
Search for a command to run...
Stephen Merity Nitish Shirish Keskar Richard Socher

摘要
循环神经网络(RNN),如长短期记忆网络(LSTM),是许多序列学习任务的基础构建模块,包括机器翻译、语言建模和问答系统。本文中,我们专注于词级语言建模的具体问题,并研究了针对基于LSTM模型的正则化和优化策略。我们提出了权重丢弃LSTM(weight-dropped LSTM),该方法通过在隐藏层到隐藏层的权重上应用DropConnect来实现循环正则化。此外,我们引入了一种名为NT-ASGD的平均随机梯度方法变体,其中平均触发条件是非单调条件,而非由用户调参确定。利用这些及其他正则化策略,我们在两个数据集上实现了最先进的词级困惑度:Penn Treebank上的57.3和WikiText-2上的65.8。在探索神经缓存与所提模型结合的有效性时,我们进一步在Penn Treebank上达到了52.8的更低的最先进的困惑度,在WikiText-2上达到了52.0。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| language-modelling-on-penn-treebank-word | AWD-LSTM + continuous cache pointer | Params: 24M Test perplexity: 52.8 Validation perplexity: 53.9 |
| language-modelling-on-penn-treebank-word | AWD-LSTM | Params: 24M Test perplexity: 57.3 Validation perplexity: 60.0 |
| language-modelling-on-wikitext-2 | AWD-LSTM + continuous cache pointer | Number of params: 33M Test perplexity: 52.0 Validation perplexity: 53.8 |
| language-modelling-on-wikitext-2 | AWD-LSTM | Number of params: 33M Test perplexity: 65.8 Validation perplexity: 68.6 |