LSTM-Multihead-Attention分类 基于长短期记忆网络(LSTM)结合多头注意力机制(Multihead-Attention)的数据分类预测(可更换为回归/单变量/多变量时序预测,前私),Matlab代码,可直接运行,适合小白新手
无需更改代码替换数据集即可运行
数据格式为excel
LSTM可以更换为BiLSTM,GRU(前)
多头注意力(Multi-Head Attention)是一种基于自注意力机制(self-attention)的改进方法
自注意力是一种能够计算出输入序列中每个位置的权重,因此可以很好地处理序列中长距离依赖关系的问题
1、运行环境要求MATLAB版本为2021b及以上
2、代码中文注释清晰,质量极高
3、运行结果图包括分类效果图,迭代优化图,混淆矩阵图,ROC曲线等
4、测试数据集,可以直接运行源程序
适合新手小白
ID:6740
详询客服 微信shujuqudong1 或shujuqudong6 或 qq68823886 或 27699885
图文详情请查看: http://matup.cn/800601224436.html