semaphore提示您:看后求收藏(笔趣阁www.biqugie.com),接着再看更方便。
的有效性尚待验证。Google 机器翻译团队提出了一种包
括自注意力机制和多头注意力机制的 transformer 结构。相较于循环神经网络(RNN)或卷积神经
网络(CNN),多头注意力机制具有许多吸引人的优点。在中文命名实体识别任务中,数据集中存在
大量非结构化文本,因此需要从多个角度和多层次来提取文本本身的更多特征。近年来,多头注意
力机制在命名实体识别任务中得到了广泛应用。例如,Li 等人采用了基于自注意力机制的深度学
习模型,而 Yin 等人则提出了一种名为 ARCCNER 的模型,该模型利用 CNN 网络学习中文激进特征并
使用自我注意机制自动获取权重。尽管字符特征得到了增强,但激进级别的特征仍然难以获取,这
不仅耗费成本,而且模型性能提升有限,尚未解决 BiLSTM 网络中的信息遗忘