bert-ancient-chinese——专注于古汉语智能处理的BERT预训练模型

(317) 2024-02-27 13:41:19

引言

当下人工智能和数字人文浪潮风靡全球,现代汉语自动分析已取得很大成果。而古代汉语的自动分析研究相对薄弱,难以满足国学、史学、文献学、汉语史的研究和国学、传统文化教育的实际需求。古汉语存在字词、词语、词类的诸多争议,资源建设困难重重。数字人文研究需要大规模语料库和高性能古文自然语言处理工具支持。鉴于预训练语言模型已经在英语和现代汉语文本上极大的提升了文本挖掘的精度,目前亟需专门面向古文自动处理领域的预训练模型。

2021年产生了两个较为高效的面向古文智能处理任务的预训练模型SikuBERT和SikuRoBERTa,并被第一个古汉语领域NLP工具评估比赛——EvaHan 2022 作为封闭环境下的预训练模型。bert-ancient-chinese 是我们为了进一步优化开放环境下模型效果得到的。

如果要引用我们的工作,您可以引用这篇论文:

@inproceedings{wang2022uncertainty,
  title={The Uncertainty-based Retrieval Framework for Ancient Chinese CWS and POS},
  author={Wang, Pengyu and Ren, Zhichen},
  booktitle={Proceedings of the Second Workshop on Language Technologies for Historical and Ancient Languages},
  pages={164--168},
  year={2022}
}

如果希望查阅英文说明,您可以查阅这个github网址。

预训练

相比于之前的预训练模型,bert-ancient-chinese主要有以下特点:

  • 古汉语文本多以繁体字出现,并且包含大量生僻汉字,这使得预训练模型的vocab表(词表)中并不存在部分生僻汉字。bert-base-chinese通过在大规模语料中进行学习,进一步扩充了预训练模型的vocab(词典),最终的vocab表大小为38208,相比于bert-base-chinese词表大小为21128siku-bert词表大小为29791bert-ancient-chinese拥有更大的词表,也收录了更多的生僻字,更有利于提升模型在下游任务的表现性能。vocab表即词表,收录在预训练模型中的vocab.txt中。

  • bert-ancient-chinese使用了更大规模的训练集。相比于siku-bert只使用《四库全书》作为预训练数据集,我们使用了更大规模的数据集(约为《四库全书》的六倍),涵盖了从部、道部、佛部、集部、儒部、诗部、史部、医部、艺部、易部、子部,相比于四库全书内容更为丰富、范围更加广泛。

  • 基于领域适应训练(Domain-Adaptive Pretraining)的思想,bert-ancient-chinesebert-base-chinese的基础上结合古文语料进行继续训练,以获取面向古文自动处理领域的预训练模型。

使用方法

Huggingface Transformers

基于Huggingface Transformers的from_pretrained方法可以直接在线获取bert-ancient-chinese模型。

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("Jihuai/bert-ancient-chinese")

model = AutoModel.from_pretrained("Jihuai/bert-ancient-chinese")

模型下载

我们提供的模型是PyTorch版本。

调用

通过Huggingface官网直接下载,目前官网的模型已同步更新至最新版本:

  • bert-ancient-chinese:Jihuai/bert-ancient-chinese · Hugging Face

云盘

下载地址:

模型名称 网盘链接
bert-ancient-chinese 链接 提取码: qs7x

验证与结果

我们在比赛EvaHan 2022提供的训练集、测试集上对不同的预训练模进行了测试和比较。我们通过对模型在下游任务自动分词词性标注上微调(fine-tuning)的性能进行了比较。

我们以BERT+CRF作为基线模型,对比了siku-bertsiku-robertabert-ancient-chinese在下游任务上的性能。为了充分利用整个训练数据集,我们采用 K 折交叉验证法,同时其他超参均保持一致。评测指标为F1值

《左传》 《史记》
自动分词 词性标注 自动分词 词性标注
siku-bert 96.0670% 92.0156% 92.7909% 87.1188%
siku-roberta 96.0689% 92.0496% 93.0183% 87.5339%
bert-ancient-chinese 96.3273% 92.5027% 93.2917% 87.8749%

引用

如果我们的内容有助您研究工作,欢迎在论文中引用。

免责声明

报告中所呈现的实验结果仅表明在特定数据集和超参组合下的表现,并不能代表各个模型的本质。实验结果可能因随机数种子,计算设备而发生改变。使用者可以在许可证范围内任意使用该模型,但我们不对因使用该项目内容造成的直接或间接损失负责。

致谢

bert-ancient-chinese是基于bert-base-chinese继续训练得到的。

感谢邱锡鹏教授和复旦大学自然语言处理实验室。

联系我们

Pengyu Wang: wpyjihuai@gmail.com

THE END

发表回复