您现在的位置:生物医药大词典 >> 通用词典 >> 词汇解释: 卷积注意力机制
卷积注意力机制

分享到:
convolutional self-attention


分类:
科技          |    查看相关文献(pubmed)   |    免费全文文献

详细解释:

文章提出了卷积注意力机制(convolutional self-attention),该机制利用因果卷积(casual convolutional)产生Q和K(与原transformer模型中的Q、K相同),从而更好地将局部上下文整合到注意机制中。在此基础上,文章提出了内存开销仅为O(L(log L)2)的LogSparse Transformer,在内存受限的条件下,能够对具有较细粒度和较强长期相关性的时间序列的预测精度。最后,文章通过在合成数据和现实数据集上的实验表明,该模型要比现有的模型效果更好。




以下为句子列表:
分享到:
赞助商链接
你知道它的英文吗?
你知道中文意思吗?
热门分类


成为编辑 - 词典APP下载 - 关于 - 推荐 - 手机词典 - 隐私 - 版权 -链接 - 联系 - 帮助
©2008-至今 生物医药大词典- 自2008年3月1日开始服务 生物谷www.bioon.com团队研发
沪ICP备14018916号-1