1. 首页
  2. 数据库
  3. 其它
  4. 任务二笔记

任务二笔记

上传者: 2021-02-01 04:11:46上传 PDF文件 56.68KB 热度 8次
1. 前向传播就是计算出最终的函数值输出,反向传播就是用数据集训练模型更新模型时要计算所需的梯度 2. 做情感分析用LSTM+Attention,或者BERT和百度的Ernie 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 样本量不大时用CBOW,样本量很大时用Skip-gram 13. 注意力模型Attention modelinput传到一个双向LSTM当中,再传到第二层的RNN当中。C中对于a的权重alpha,加和为1,由下图可知,通过softmax使其加和为1.语音识别系统(用attention或CTC)语音信号通常要进行预处理变成频率,用频谱表示,但是变换后的输
用户评论