在执行一个爬虫程序时,出现了IncompleteRead的报错:

IncompleteRead: IncompleteRead(196171 bytes read, 209626 more expected)

download代码如下:

def download(url, user_agent='Mozilla/5.0 (X11; Linux x86_64; rv:38.0) Gecko/20100101 Firefox/38.0',num_retries=2):
    headers = {'User-agent': user_agent}
    request = urllib.request.Request(url, headers=headers)
        html = urllib.request.urlopen(request).read()
    except urllib.request.URLError as e:
        print ('Downloading error:', e.reason)
        html = None
        if num_retries > 0:
            if hasattr(e, 'code') and 500 <= e.code < 600:
                return download(url, num_retries -1)
return html

报错如下:

经过调试,是read()方法报错,这个网页返回的response有341486个字节,但是读到64311个字节时就终止,并提示“imcompleteRead错误”,大概率是因为超时了。 看到有人通过延长timeout来解决,这个不推荐 ,因为这个值太大太小都没意义。

查阅了文档,发现read()这个方法可以指定读取字节数来控制,read(10),所以最终我是这样解决的:

 resp = urllib.request.urlopen(request)
 html = resp.read(resp.length)

目前验证下来,没有报错。

我搜索了一下百度,没有发现类似的答案,不过在stackoverflow有类似的疑问。等会后面有链接。 可能出现这个问题的原因:这里执行 urllib read ()函数时候,它会捕获任何不完整的读取异常。因此出现了报错。 我们可以不让它捕获异常,因此当读取链接的时候我们可以用try / catch来抛出异常。 我之前的一段代...
对于这段时间遇到的问题,在多次感到记忆力无能时,觉得很有必要记下来! 1、UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128) 可以试着在导入sys模块 import sys reload(sys) sys.setdefaultencoding(
Traceback (most recent call last): File "/home/ubuntu/workspace/dcard/venv/lib/ python 3.5/site-packages/requests/packages/ urllib 3/response.py", line 435, in _update_chunk_length self.chunk_left = int(line, 16) ValueError: invalid literal for int() with base 16: b'' During handling of the above
由于平时主要用 Python 编写Web漏洞规则脚本,所以网络方面的库使用较多,如 urllib urllib 2,httplib2等,我们知道 urllib 这几个库都是基于httplib库 开发 的, 那么她们有什么区别呢?只能通过源码去分析,想看源码,那么基础库httplib得熟悉。
问题:使用 urllib 的request模块抓取页面时,不时会出现“In com p let e Read (25686 bytes read )”这样的 错误 导致运行中断。 部分代码如下: url = "https://baike.baidu. com /item/%E6%95%B0%E5%AD%A6/107037" rsp = request. url open ( url ) html...
python 3 用 urllib 时,出现http.client.In com p let e Read : In com p let e Read (34144 bytes read ) 错误 代码: 原出错代码: html = urllib .request. url open (request). read ().decode('utf-8') 解决 方法: html = urllib .request.ur...
使用 urllib 3上传出现的问题 Connection broken: In com p let e Read (1394 bytes read )', In com p let e Read (1394 bytes read ) 原因:网上说此问题出现的原因是服务器的请求只支持HTTP/1.0, urllib 3中使用了chunk,但是chunk在HTTP/1.1中才会有,传输还没完成连接就中断了,所以报错 # 引入...
### 回答1: Pandas是一个 Python 库,用于数据处理和分析。在数据分析中,预处理是非常重要的一步,因为它可以帮助我们清洗和转换数据,使其更适合进行分析。Pandas提供了一些强大的预处理功能,包括数据清洗、数据转换、数据重塑和数据合并等。在使用Pandas进行数据分析时,预处理是必不可少的一步。 ### 回答2: 在数据分析中,数据的预处理是一个必要的过程。它的主要目的是清洗数据,准备数据,以便后续分析。在 Python 中,pandas是一种广泛使用的数据处理库。pandas可以通过其高效的数据结构和操作方法来清洗和处理数据。在本文中,将介绍pandas预处理的一些常见技术。 一、读取数据 在pandas中,使用 read _csv()函数读取CSV格式的数据文件, read _excel()函数读取Excel格式的数据文件。它们都有很多选项,可以根据具体文件的格式进行设置。 二、查看数据 在pandas中,使用以下函数来查看数据: 1. head() - 显示数据框的前几行; 2. tail() - 显示数据框的后几行; 3. columns - 显示数据框的列名; 4. shape - 显示数据框的行列数; 5. info() - 显示数据框的基本信息,包括每列的名称、非空值数量和数据类型。 三、数据清洗 在数据清洗中,有以下一些常见的技术: 1. 删除重复行:使用drop_duplicates()函数; 2. 替换空值:使用fillna()函数; 3. 删除空值:使用dropna()函数; 4. 更改数据类型:使用astype()函数。 四、数据准备 在数据准备中,有以下一些常见的技术: 1. 数据合并:使用merge()函数; 2. 数据筛选:使用loc()函数或者iloc()函数; 3. 数据分组:使用groupby()函数; 4. 数据排序:使用sort_values()函数。 五、数据分析 在数据分析中,有以下一些常见的技术: 1. 数据聚合:使用agg()函数; 2. 统计描述:使用describe()函数; 3. 数据可视化:使用matplotlib或者seaborn库。 综上所述,pandas预处理是数据分析中必不可少的一步。通过使用pandas提供的函数和方法,可以方便地清理和处理数据,使其更容易被分析。 ### 回答3: Pandas是 Python 中最强大的数据处理库之一,它提供了DataFrame和Series这两种数据结构,可以快速便捷地处理数据。在数据分析过程中,我们往往需要先对数据进行预处理,以便后续的分析。Pandas提供了一系列的方法和函数,可以帮助我们进行数据的预处理。 首先,在进行数据分析之前,我们需要了解自己所面对的数据类型和数据结构。Pandas中的DataFrame结构就是类似于表格的结构,每一行代表一个样本,每一列代表一个属性。Series则是一维的数组结构。通过pandas. read _csv(),我们可以读取CSV格式的数据,并转化为DataFrame结构。 接下来,我们要对数据进行一些基本的处理,例如数据清洗、数据去重、缺失值处理、异常值处理等。在数据清洗过程中,我们往往需要对数据进行一些特殊的处理,例如字符串的分割、合并、替换等操作,Pandas提供了一系列能够对文本进行操作的函数。在数据去重方面,我们可以使用drop_duplicates()函数,它可以去除DataFrame中的重复记录。在处理缺失值时,Pandas提供了一系列的函数,如fillna()函数、dropna()函数,可以方便地将NaN值变为其他有意义的值,或者删除缺失值的行或列。在异常值处理方面,我们可以使用isoutlier()函数来找到数据中的异常值,并进行处理。 在数据预处理完成后,我们可以对数据进行一些统计分析,例如计算小计、计算总计、分位数、极差、方差、标准差等统计指标。我们可以使用describe()函数来获得数据的统计描述,还可以使用groupby()函数来对数据分组,使用agg()函数对每组进行计算统计指标。此外,我们还可以对数据进行排序、丢弃、合并等操作。 总之,Pandas是一个非常强大的 Python 库,可以轻松处理数据预处理和数据处理方面的任务。Pandas作为数据分析和数据处理的基础库,使用熟练后可以在数据分析中发挥更大的作用。