update readme

This commit is contained in:
leo 2019-12-03 22:59:23 +08:00
parent f54009a49c
commit 9d982c1ff8
2 changed files with 2 additions and 2 deletions

View File

@ -137,7 +137,7 @@ sentence|relation|head|head_offset|tail|tail_offset
- 按照 BERT 训练方式,对新任务语料按照语言模型方式预训练。 - 按照 BERT 训练方式,对新任务语料按照语言模型方式预训练。
1. 目前在单句上使用 GCN 时需要先做句法分析构建出词语之间的邻接矩阵句法树相邻的边值设为1不相邻为0。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp]https://github.com/hankcs/pyhanlp) 的介绍。 1. 在单句上使用 GCN 时需要先做句法分析构建出词语之间的邻接矩阵句法树相邻的边值设为1不相邻为0。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp](https://github.com/hankcs/pyhanlp) 的介绍。
## 后续工作 ## 后续工作

View File

@ -1,4 +1,4 @@
此文件夹下存放预训练的 BERT 文件 此文件夹下存放预训练模型参数的文件夹,如 BERT 等
中文 BERT 推荐使用哈工大发布的中文全词遮掩预训练模型 [BERT-wmm](https://github.com/ymcui/Chinese-BERT-wwm),而且提供讯飞云下载,国内下载速度很快,具体链接见上述网址。 中文 BERT 推荐使用哈工大发布的中文全词遮掩预训练模型 [BERT-wmm](https://github.com/ymcui/Chinese-BERT-wwm),而且提供讯飞云下载,国内下载速度很快,具体链接见上述网址。