效能度量 一种融合指代消解序列标注方法在中文人名识别上的应用(上)

京东云开发者 · 2024年04月17日 · 192 次阅读

技术领域

自然语言处理领域。

应用场景:

适用于自然语言处理领域,通过命名实体识别(Named Entity Recognition,NER),准确识别实体。依托自然语言处理领域,基于人民日报数据及构造的舆情公告数据,提出一种融合指代消解的序列标注方法来改进人名识别。

解决的问题:

实体包括人名、地名和组织名等,与其他实体相比,人名与职务、职务变更及人称代词有关。人名作为众多实体类别之一,常出现在信息资料库、图书馆借阅登记表、期刊文章等场景中。但在人名的实体识别时,人名语料的残缺及人称指代不明等问题,会严重影响识别的准确度,成为处理中的难点、痛点。

基于人民日报数据及构造的舆情公告数据,提出一种融合指代消解的序列标注方法来改进人名识别。通过人民日报数据及构造的舆情公告数据,能有效缓解人名识别中人名语料不完善的问题;通过数据增强优化数据集,并对人称代词进行人称消解,解决人称代词指代不明、有效数据占比低等问题,提高人名提取的准确率。

系统方法说明

一、对数据进行数据增强:

利用爬虫技术爬取到舆情公告文本数据。

利用分词工具从海量文本中进行文本抽取,抽取出符合要求的单句文本。

针对职务变更词和职务,设置自定义词典,达到数据增强的效果。

数据预处理阶段,根据职务变更等有效信息进行数据增强

先利用爬虫技术爬取到舆情公告文本数据,之后利用分词工具从海量文本中进行文本抽取,抽取出符合要求的单句文本;再针对职务变更词和职务,设置自定义词典,达到数据增强的效果。

首先,对文本数据进行清洗、分类,既可以减少噪声干扰,又能保证后续数据增强的正确性。接着,对职务变更词和职务进行细粒度区分,为后续测验铺垫。不进行数据预处理,即直接在原文本上也可以进行中文人名识别,但这样性能差。首先,对文本数据进行清洗、分类,既可以减少噪声干扰,又能保证后续数据增强的正确性。接着,对职务变更词和职务进行细粒度区分,为后续测验铺垫。

在分词阶段,使用 Jieba 分词。虽然有的非全名字段,如 “周先生” 仍可成功识别,但是少许职务会被当作人名出现。为了解决该问题,通过设置禁用词表和自定义词典,改进粗略目标文本数据,进而得到最终的精确目标文本数据。在获得精确文本数据后,按照职务变更词、职务进行提取,达到数据增强的作用。

二、使用了 BERT 模型和指代消解算法:

加入 BERT 语言预处理模型,获取到高质量动态词向量。

融入指代消解算法,根据指代词找出符合要求的子串/短语。

【1】加入 BERT 语言预处理模型,获取到高质量动态词向量

在使用 BERT 模型之前,有两大模型训练方式,一个是 Word2Vec 模型,它训练出来的词向量属于静态词向量,无法表示一词多义;另一个方法是使用 GPT 单向语言模型训练的,无法获取字的上下文信息,所以将单向的 LSTM 模块改为双向的 BiLSTM 模块,对单项 GPT 模型进行改进,变成双向语言模型。仅仅利用双向长短时记忆网络与条件随机场结合的方式,可以建模并标出序列的关系,但是无法动态表征。

BERT 模块主要进行 “表示” 作用,抽取丰富的文本特征,得到 batch_size*max_seq_len*emb_size 的输出向量。为了更好的学习上下文特征,加入 BERT 语言预处理模型,以 Transformer 结构为核心,进行一词多义并获取词的上下文信息,获取到高质量动态词向量。

图 1 整体流程可知,通过分词器已经将句子 x 分割为 a~e 五个字,将其作为输入传给模型中 BERT 模块做训练处理,得到的输出向量作为模型中的 BiLSTM 模块的输入,进行特征提取,得到输出向量,将这五个向量作为输入,进入模型中的 CRF 层进行解码,计算最优的标注序列,至此已经能够有效地提高人名识别的准确率了。

【2】融入指代消解算法,根据指代词找出符合要求的子串/短语

该部分将在《一种融合指代消解序列标注方法在中文人名识别上的应用(下)》重点阐述。

【3】融入的指代消解算法,比加入外部语料和字符级特征更通用有效

该部分将在《一种融合指代消解序列标注方法在中文人名识别上的应用(下)》重点阐述。

该算法未来将拓展至机构名、地名以及其他所有以名称为标识的实体,能更好的服务于京东小程序客户体验中的寄收件地址的文本识别中,提高相关识别的准确率。

暂无回复。
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册