在执行一个爬虫程序时,出现了IncompleteRead的报错:
IncompleteRead: IncompleteRead(196171 bytes read, 209626 more expected)
download代码如下:
def download(url, user_agent='Mozilla/5.0 (X11; Linux x86_64; rv:38.0) Gecko/20100101 Firefox/38.0',num_retries=2):
headers = {'User-agent': user_agent}
request = urllib.request.Request(url, headers=headers)
html = urllib.request.urlopen(request).read()
except urllib.request.URLError as e:
print ('Downloading error:', e.reason)
html = None
if num_retries > 0:
if hasattr(e, 'code') and 500 <= e.code < 600:
return download(url, num_retries -1)
return html
报错如下:
经过调试,是read()方法报错,这个网页返回的response有341486个字节,但是读到64311个字节时就终止,并提示“imcompleteRead错误”,大概率是因为超时了。
看到有人通过延长timeout来解决,这个不推荐
,因为这个值太大太小都没意义。
查阅了文档,发现read()这个方法可以指定读取字节数来控制,read(10),所以最终我是这样解决的:
resp = urllib.request.urlopen(request)
html = resp.read(resp.length)
目前验证下来,没有报错。
我搜索了一下百度,没有发现类似的答案,不过在stackoverflow有类似的疑问。等会后面有链接。
可能出现这个问题的原因:这里执行
urllib
的
read
()函数时候,它会捕获任何不完整的读取异常。因此出现了报错。
我们可以不让它捕获异常,因此当读取链接的时候我们可以用try / catch来抛出异常。
我之前的一段代...
对于这段时间遇到的问题,在多次感到记忆力无能时,觉得很有必要记下来!
1、UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)
可以试着在导入sys模块
import sys
reload(sys)
sys.setdefaultencoding(
Traceback (most recent call last):
File "/home/ubuntu/workspace/dcard/venv/lib/
python
3.5/site-packages/requests/packages/
urllib
3/response.py", line 435, in _update_chunk_length
self.chunk_left = int(line, 16)
ValueError: invalid literal for int() with base 16: b''
During handling of the above
由于平时主要用
Python
编写Web漏洞规则脚本,所以网络方面的库使用较多,如
urllib
,
urllib
2,httplib2等,我们知道
urllib
这几个库都是基于httplib库
开发
的,
那么她们有什么区别呢?只能通过源码去分析,想看源码,那么基础库httplib得熟悉。
问题:使用
urllib
的request模块抓取页面时,不时会出现“In
com
p
let
e
Read
(25686 bytes
read
)”这样的
错误
导致运行中断。
部分代码如下:
url
= "https://baike.baidu.
com
/item/%E6%95%B0%E5%AD%A6/107037"
rsp = request.
url
open
(
url
)
html...
python
3 用
urllib
时,出现http.client.In
com
p
let
e
Read
: In
com
p
let
e
Read
(34144 bytes
read
)
错误
代码:
原出错代码:
html =
urllib
.request.
url
open
(request).
read
().decode('utf-8')
解决
方法:
html =
urllib
.request.ur...
使用
urllib
3上传出现的问题
Connection broken: In
com
p
let
e
Read
(1394 bytes
read
)', In
com
p
let
e
Read
(1394 bytes
read
)
原因:网上说此问题出现的原因是服务器的请求只支持HTTP/1.0,
urllib
3中使用了chunk,但是chunk在HTTP/1.1中才会有,传输还没完成连接就中断了,所以报错
# 引入...
### 回答1:
Pandas是一个
Python
库,用于数据处理和分析。在数据分析中,预处理是非常重要的一步,因为它可以帮助我们清洗和转换数据,使其更适合进行分析。Pandas提供了一些强大的预处理功能,包括数据清洗、数据转换、数据重塑和数据合并等。在使用Pandas进行数据分析时,预处理是必不可少的一步。
### 回答2:
在数据分析中,数据的预处理是一个必要的过程。它的主要目的是清洗数据,准备数据,以便后续分析。在
Python
中,pandas是一种广泛使用的数据处理库。pandas可以通过其高效的数据结构和操作方法来清洗和处理数据。在本文中,将介绍pandas预处理的一些常见技术。
一、读取数据
在pandas中,使用
read
_csv()函数读取CSV格式的数据文件,
read
_excel()函数读取Excel格式的数据文件。它们都有很多选项,可以根据具体文件的格式进行设置。
二、查看数据
在pandas中,使用以下函数来查看数据:
1. head() - 显示数据框的前几行;
2. tail() - 显示数据框的后几行;
3. columns - 显示数据框的列名;
4. shape - 显示数据框的行列数;
5. info() - 显示数据框的基本信息,包括每列的名称、非空值数量和数据类型。
三、数据清洗
在数据清洗中,有以下一些常见的技术:
1. 删除重复行:使用drop_duplicates()函数;
2. 替换空值:使用fillna()函数;
3. 删除空值:使用dropna()函数;
4. 更改数据类型:使用astype()函数。
四、数据准备
在数据准备中,有以下一些常见的技术:
1. 数据合并:使用merge()函数;
2. 数据筛选:使用loc()函数或者iloc()函数;
3. 数据分组:使用groupby()函数;
4. 数据排序:使用sort_values()函数。
五、数据分析
在数据分析中,有以下一些常见的技术:
1. 数据聚合:使用agg()函数;
2. 统计描述:使用describe()函数;
3. 数据可视化:使用matplotlib或者seaborn库。
综上所述,pandas预处理是数据分析中必不可少的一步。通过使用pandas提供的函数和方法,可以方便地清理和处理数据,使其更容易被分析。
### 回答3:
Pandas是
Python
中最强大的数据处理库之一,它提供了DataFrame和Series这两种数据结构,可以快速便捷地处理数据。在数据分析过程中,我们往往需要先对数据进行预处理,以便后续的分析。Pandas提供了一系列的方法和函数,可以帮助我们进行数据的预处理。
首先,在进行数据分析之前,我们需要了解自己所面对的数据类型和数据结构。Pandas中的DataFrame结构就是类似于表格的结构,每一行代表一个样本,每一列代表一个属性。Series则是一维的数组结构。通过pandas.
read
_csv(),我们可以读取CSV格式的数据,并转化为DataFrame结构。
接下来,我们要对数据进行一些基本的处理,例如数据清洗、数据去重、缺失值处理、异常值处理等。在数据清洗过程中,我们往往需要对数据进行一些特殊的处理,例如字符串的分割、合并、替换等操作,Pandas提供了一系列能够对文本进行操作的函数。在数据去重方面,我们可以使用drop_duplicates()函数,它可以去除DataFrame中的重复记录。在处理缺失值时,Pandas提供了一系列的函数,如fillna()函数、dropna()函数,可以方便地将NaN值变为其他有意义的值,或者删除缺失值的行或列。在异常值处理方面,我们可以使用isoutlier()函数来找到数据中的异常值,并进行处理。
在数据预处理完成后,我们可以对数据进行一些统计分析,例如计算小计、计算总计、分位数、极差、方差、标准差等统计指标。我们可以使用describe()函数来获得数据的统计描述,还可以使用groupby()函数来对数据分组,使用agg()函数对每组进行计算统计指标。此外,我们还可以对数据进行排序、丢弃、合并等操作。
总之,Pandas是一个非常强大的
Python
库,可以轻松处理数据预处理和数据处理方面的任务。Pandas作为数据分析和数据处理的基础库,使用熟练后可以在数据分析中发挥更大的作用。