>>>import nltk
>>>nltk.download()
---------------------------------------------------------------------------
    d) Download   l) List    u) Update   c) Config   h) Help   q) Quit
---------------------------------------------------------------------------
Downloader> d
Download which package (l=list; x=cancel)?
  Identifier> punkt
    Downloading package punkt to /home/aistudio/nltk_data...
      Unzipping tokenizers/punkt.zip.

解决方式二:手动下载移至对应目录

按照第一种方式如果出错会得到提示:

 Searched in:
    - '/root/nltk_data'
    - '/usr/nltk_data'
    - '/usr/share/nltk_data'
    - '/usr/lib/nltk_data'
    - '/usr/share/nltk_data'
    - '/usr/local/share/nltk_data'
    - '/usr/lib/nltk_data'
    - '/usr/local/lib/nltk_data'

下载punkt.zip包,解压缩后放置到/nltk_data/tokenizers文件目录下,然后将整个文件目录放置到其searched in的任意一个目录下就ok。

>>>import nltk>>>nltk.download()--------------------------------------------------------------------------- d) Download l) List u) Update c) Config h) Help q) Quit...
安装NLTK可能出现的问题: 1. pip install ntlk 2. 如果遇到缺少stopwords报错如下:(http://johnlaudun.org/20130126-nltk-stopwords/) LookupError: **********************************************************************
通常我们在终端是不能用nltk.download(‘punkt’)下载的 我把下载好的punkt.zip放到网盘里面了,应该是永久有效的,失效了可以联系我。 链接: https://pan.baidu.com/s/1aaFpRWKA2rKV-a2OD6r0cQ 密码: r98k 那么下载后的punkt放到哪里呢??? 我们打开python import nltk nltk.word_tokenize("dsd dcascacav ds") 不出意外的话,他应该是显示如下问题: 我们看它显示的Sear
nltk下载出现问题 今天继续项目三,由于需要做一个英文的关键词提取,所以需要用到nltk的库文件。 from nltk.stem import WordNetLemmatizer # 使用WordNetLemmatizer类,即wordnet词形还原方法 def Lemmatization_text(text_cut_list): wnl = WordNetLemmatizer() return [wnl.lemmatize(n) for n in text_cut_list]