>>>import nltk
>>>nltk.download()
---------------------------------------------------------------------------
d) Download l) List u) Update c) Config h) Help q) Quit
---------------------------------------------------------------------------
Downloader> d
Download which package (l=list; x=cancel)?
Identifier> punkt
Downloading package punkt to /home/aistudio/nltk_data...
Unzipping tokenizers/punkt.zip.
解决方式二:手动下载移至对应目录
按照第一种方式如果出错会得到提示:
Searched in:
- '/root/nltk_data'
- '/usr/nltk_data'
- '/usr/share/nltk_data'
- '/usr/lib/nltk_data'
- '/usr/share/nltk_data'
- '/usr/local/share/nltk_data'
- '/usr/lib/nltk_data'
- '/usr/local/lib/nltk_data'
下载punkt.zip包,解压缩后放置到/nltk_data/tokenizers文件目录下,然后将整个文件目录放置到其searched in的任意一个目录下就ok。
>>>import nltk>>>nltk.download()--------------------------------------------------------------------------- d) Download l) List u) Update c) Config h) Help q) Quit...
安装NLTK可能出现的问题:
1. pip install ntlk
2. 如果遇到缺少stopwords报错如下:(http://johnlaudun.org/20130126-nltk-stopwords/)
LookupError:
**********************************************************************
通常我们在终端是不能用nltk.download(‘punkt’)下载的
我把下载好的punkt.zip放到网盘里面了,应该是永久有效的,失效了可以联系我。
链接: https://pan.baidu.com/s/1aaFpRWKA2rKV-a2OD6r0cQ 密码: r98k
那么下载后的punkt放到哪里呢???
我们打开python
import nltk
nltk.word_tokenize("dsd dcascacav ds")
不出意外的话,他应该是显示如下问题:
我们看它显示的Sear
nltk下载出现问题
今天继续项目三,由于需要做一个英文的关键词提取,所以需要用到nltk的库文件。
from nltk.stem import WordNetLemmatizer
# 使用WordNetLemmatizer类,即wordnet词形还原方法
def Lemmatization_text(text_cut_list):
wnl = WordNetLemmatizer()
return [wnl.lemmatize(n) for n in text_cut_list]