在数据处理与分析领域,数值型与字符型类别变量的编码是不可或缺的预处理操作。本文基于Python下
OneHotEncoder
与
pd.get_dummies
两种方法,对机器学习中最优的编码方法——
独热编码
加以实现。
首先导入必要的模块。
import pandas as pd
from sklearn.preprocessing import OneHotEncoder
其中,OneHotEncoder
是我们实现独热编码的关键模块。
接下来,导入并显示数据前五行。
test_data_1=pd.read_csv('G:/CropYield/03_DL/00_Data/onehot_test.csv',names=['EVI0610','EVI0626','SoilType'],header=0)
test_data_1.head(5)
关于这里导入数据代码的解释,大家可以查看博客1与博客2,这里就不再赘述啦~
数据前五行展示如下图。其中,前两列'EVI0610'
与'EVI0626'
为数值型连续变量,而'SoilType'
为数值型类别变量。我们要做的,也就是将第三列'SoilType'
进行独热编码。
接下来,进行独热编码的配置。
ohe=OneHotEncoder(handle_unknown='ignore')
ohe.fit(test_data_1)
在这里,第一行是对独热编码的配置,第二行则是对我们刚刚导入的数据进行独热编码处理。得到一个独热编码配置的输出结果。
接下来,看看独热编码处理后,将我们的数据分成了哪些类别。
ohe.categories_
得到结果如下图。
可以发现,一共有三个array
,为什么呢?仔细看可以发现,独热编码是将我们导入的三列数据全部都当作类别变量来处理了。之所以会这样,是因为我们在一开始没有表明哪一列是类别变量,需要进行独热编码;而哪一列不是类别变量,从而不需要进行独热编码。
那么,我们如何实现上述需求,告诉程序我们要对哪一行进行独热编码呢?在老版本的sklearn
中,我们可以借助categorical_features=[x]
参数来实现这一功能,但是新版本sklearn
取消了这一参数。那么此时,一方面,我们可以借助ColumnTransformer
来实现这一过程,另一方面,我们可以直接对需要进行转换的列加以处理。后者相对较为容易理解,因此本文对后者进行讲解。
我们将test_data_1
中的'SoilType'
列作为索引,从而仅仅对该列数据加以独热编码。
ohe_column=pd.DataFrame(ohe.fit_transform(test_data_1[['SoilType']]).toarray())
ohe_column.head(5)
其中,[['SoilType']]
表示仅仅对这一列进行处理。得到结果如下图。
可以看到,原来的'SoilType'
列现在成为了63列的编码列,那么这样的话,说明我们原先的'SoilType'
应该一共是有63个不同的数值。是不是这个样子呢?我们来检查一下。
count=pd.DataFrame(test_data_1['SoilType'].value_counts())
print(count)
得到结果如下。
好的,没有问题:可以看到此结果共有63行,也就是'SoilType'
列原本是有63个不同的值的,证明我们的独热编码没有出错。
此时看一下我们的test_data_1
数据目前长什么样子。
test_data_1.head(5)
是的,我们仅仅对'SoilType'
列做了处理,没有影响到整个初始数据。那么先将原本的'SoilType'
列剔除掉。
test_data_1=test_data_1.drop(['SoilType'],axis=1)
test_data_1.head(5)
再将经过独热编码处理后的63列加上。
test_data_1.join(ohe_column)
大功告成!
但是这里还有一个问题,我们经过独热编码所得的列名称始以数字来命名的,非常不方便。因此,有没有什么办法可以在独热编码进行的同时,自动对新生成的列加以重命名呢?
pd.get_dummies
是一个最好的办法!其具体用法与上述OneHotEncoder
类似,因此具体过程就不再赘述啦,大家看代码就可以明白。
首先还是导入与上述内容中一致的初始数据。
test_data_2=pd.read_csv('G:/CropYield/03_DL/00_Data/onehot_test.csv',names=['EVI0610','EVI0626','SoilType'],header=0)
test_data_2.head(5)
进行独热编码并看看结果。
test_data_2_ohe=pd.get_dummies(test_data_2,columns=['SoilType'])
test_data_2_ohe.head(5)
最终结果中,列名称可以说是非常醒目,同时,共有65列数据,自动删除了原本的'SoilType'
列,实现了“独热编码”“新列重命名”与“原始列删除”,可谓一举三得,简直是太方便啦~
欢迎关注公众号:疯狂学习GIS
首先导入必要的模块。import pandas as pdfrom sklearn.preprocessing import OneHotEncoder其中,OneHotEncoder是我们实现独热编码的关键模块。接下来,导入并显示数据前五行。test_data_1=pd.read_csv('G:/CropYield/03_DL/00_Data/onehot_test.csv',header=0)test_data_1.head(5)关于这里导入数据代码的解释,大家可以查看博客1与博客2,
原文链接:http://blog.csdn.net/dulingtingzi/article/details/51374487
在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。
例如,考虑一下的三个特征:
["male","female"]
["from Europe","from US","from Asia"]
["uses Firefox","u...
鲍鱼是一种贝类,在世界许多地方都被视为美味佳肴。铁和泛酸的极好来源,是澳大利亚、美国和东亚的营养食品资源和农业。100 克鲍鱼可提供超过 20% 的每日推荐摄入量。鲍鱼的经济价值与其年龄呈正相关。因此,准确检测鲍鱼的年龄对于养殖者和消费者确定其价格非常重要。
然而,目前决定年龄的技术是相当昂贵且低效的。
养殖者通常会切开贝壳并通过显微镜计算环数来估计鲍鱼的年龄。因此,判断鲍鱼的年龄很困难,主要是因为它们的大小不仅取决于它们的年龄,还..
Kappa统计
Kappa统计是比较两个或多个观测者对同一事物,或观测者对同一事物的两次或多次观测结果是否一致,以由于机遇造成的一致性和实际观测的一致性之间的差别大小作为评价基础的统计指标。Kappa统计量和加权Kappa统计量不仅可以用于无序和有序分类变量资料的一致性、重现性检验,而且能给出一个反映一致性大小的“量”值。
Kappa = +1:说明两次判断的结果完全一致
Kappa = -1 :说明两次判断的结果完全不一致
Kappa = 0 :说明两次判断的结果是机遇造成
在机器学习算法中,我们经常会遇到分类特征,例如:人的性别有男女,祖国有中国,美国,法国等。
这些特征值并不是连续的,而是离散的,无序的。通常我们需要对其进行特征数字化。
那什么是特征数字化呢?例子如下:
性别特征:[“男”,“女”]
祖国特征:[“中国”,"美国,“...