我们使用 Bert 的 bert-base-chinese 为基础模型,在我们自己的数据集上进行微调来实现 NER 任务。我们这里使用的是 transformers 库中提供的 BertForTokenClassific...
我们使用的是 MSRA 中文 NER 数据集,该数据集共包含三个目录:test、valid、train,分别对应了测试集、验证集、训练集。训练集有:42000 条数据,验证集有 3000 条数据,测试集有 3442 条数...
对于命名实体识别任务,基于神经网络的方法应用非常常见。其中的 CRF 层对于刚刚接触学习的同学可能不是特别容易理解,下联链接的文章的作者对 CRF 做了非常好的讲解。我认真学习了作者的相关文章,把自己的理解总结下来,想看...
字节对编码(Byte-Pair Encoding,BPE)最初被开发为一种文本压缩算法,后来被 OpenAI 用于 GPT 模型预训练时的分词。许多 Transformer 模型都使用了该方法,包括 GPT、GPT-2、...
我们在使用 transformers 时,需要使用自己的数据来构建 tokenizer。这里我们使用 tokenizer 库,该库可以帮我们更加轻松的构建不同类型的 Tokenizer。安装命令如下: 训练一个分词器,我...
在 Character-Level Language Modeling with Deeper Self-Attention 中,作者提到 LSTM 和 RNN 变体能够在对字符级语言建模有着非常优秀的表现,这得益于它能...
我们主要实现了两个预测函数,一个用于给定第一个字,来预测上联和下联,另外一个可以输入整个上联来预测下联,这俩函数其实很类似。 1. 预测上下联 2. 只预测下联 3. 调用示例 程序预测输出: 看着挺工整,懂对联的同学可...
这部分主要包含两部分: 对联模型类编写 训练函数的实现 1. 对联模型 首先,我们将加载数据处理时得到的 tokenizer-encode-tokenizer, 主要用于获得词表大小,当然,我们在前面处理时,可以单独将词...
GPT 非常适合生成类任务,下面使用对联语料从零训练一个用于对联生成的模型。该模型: 输入一个字,自动生成上联和下联 输入上联,自动生成下联 语料文件结构如下: 语料部分截图: 导入需要的模块: 1. 语料清洗 对语料进...