有一种观点认为,ChatGPT和基于变压器的大型语言模型(LLMs)的最近成功吸走了 其他深度学习领域(包括循环神经网络RNNs)的大部分资源。 LLMs的令人印象深刻的成就和商业潜力严重影响了研究优先事项、媒体报道和教育趋势, 使得RNNs、计算机视觉、强化学习等领域受到的关注大大减少。
这就是为什么介绍了Extended Long Short-Term Memory(xLSTM)的 新论文让机器学习社区兴奋:LSTMs并未消亡!RNNs即将回归!
根据深度学习先驱和LSTM的作者之一Sepp Hochreiter的说法, xLSTM在时间序列预测方面表现出色: "我们的xLSTM Time模型对抗最先进的基于Transformer的模型以及其他最近提出的时间序列模型展现出优异表现。" 这很了不起!让我们回顾一下关于LSTM网络的所知,并探索它们新的有前途的发展 - xLSTM。