From 9d982c1ff8bb3c6b1af43d644e122a078b16017e Mon Sep 17 00:00:00 2001 From: leo Date: Tue, 3 Dec 2019 22:59:23 +0800 Subject: [PATCH] update readme --- README.md | 2 +- pretrained/readme.md | 2 +- 2 files changed, 2 insertions(+), 2 deletions(-) diff --git a/README.md b/README.md index c078206..a8ada15 100644 --- a/README.md +++ b/README.md @@ -137,7 +137,7 @@ sentence|relation|head|head_offset|tail|tail_offset - 按照 BERT 训练方式,对新任务语料按照语言模型方式预训练。 -1. 目前在单句上使用 GCN 时,需要先做句法分析,构建出词语之间的邻接矩阵(句法树相邻的边值设为1,不相邻为0)。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp]https://github.com/hankcs/pyhanlp) 的介绍。 +1. 在单句上使用 GCN 时,需要先做句法分析,构建出词语之间的邻接矩阵(句法树相邻的边值设为1,不相邻为0)。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp](https://github.com/hankcs/pyhanlp) 的介绍。 ## 后续工作 diff --git a/pretrained/readme.md b/pretrained/readme.md index 44b898c..23a7d5a 100644 --- a/pretrained/readme.md +++ b/pretrained/readme.md @@ -1,4 +1,4 @@ -此文件夹下存放预训练的 BERT 文件。 +此文件夹下存放预训练模型参数的文件夹,如 BERT 等。 中文 BERT 推荐使用哈工大发布的中文全词遮掩预训练模型 [BERT-wmm](https://github.com/ymcui/Chinese-BERT-wwm),而且提供讯飞云下载,国内下载速度很快,具体链接见上述网址。