diff --git a/README.md b/README.md
index c078206..a8ada15 100644
--- a/README.md
+++ b/README.md
@@ -137,7 +137,7 @@ sentence|relation|head|head_offset|tail|tail_offset
     
     - 按照 BERT 训练方式,对新任务语料按照语言模型方式预训练。
     
-1. 目前在单句上使用 GCN 时,需要先做句法分析,构建出词语之间的邻接矩阵(句法树相邻的边值设为1,不相邻为0)。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp]https://github.com/hankcs/pyhanlp) 的介绍。
+1. 在单句上使用 GCN 时,需要先做句法分析,构建出词语之间的邻接矩阵(句法树相邻的边值设为1,不相邻为0)。目前使用的是 `pyhanlp` 工具构建语法树。这个工具需要按照 java 包,具体使用见 [pyhanlp](https://github.com/hankcs/pyhanlp) 的介绍。
 
 
 ## 后续工作
diff --git a/pretrained/readme.md b/pretrained/readme.md
index 44b898c..23a7d5a 100644
--- a/pretrained/readme.md
+++ b/pretrained/readme.md
@@ -1,4 +1,4 @@
-此文件夹下存放预训练的 BERT 文件。
+此文件夹下存放预训练模型参数的文件夹,如 BERT 等。
 
 中文 BERT 推荐使用哈工大发布的中文全词遮掩预训练模型 [BERT-wmm](https://github.com/ymcui/Chinese-BERT-wwm),而且提供讯飞云下载,国内下载速度很快,具体链接见上述网址。