百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

人工智能实战演练:集成学习大杀器xgboost解决分类问题,附代码

toyiye 2024-09-03 22:25 4 浏览 0 评论

专栏推荐

安装

要想实现xgboost,首先我们要安装xgboost,

方法一:pip install xgboost

方法二:登录网址https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost,然后往下翻,我们可以找到我们想要的xgboost的whl文件

cp表示python的版本,而win32表示32位的,win64表示64位的,所以我们最好下载匹配我们版本的那个xgboost,我们原始ie浏览器才能下载,也不知道怎么回事。

whl文件之所以方便是因为它是编译好的,所以安装他比较方便,我把它放到了c盘下,这样安装命令如图所示

这样就表示安装成功了,注意这是在window下的安装环境,在linux下会很方便的。

安装好的之后,我们就通过一个案例来看一下究竟这个东西怎么使用?

我们现在有一个数据集,这个数据集中有两类:

分别是y=0和y=1,我们要使用这个xgboost来完成这个分类任务

我首先使用sklearn工具先将这个数据集分成两部分,一部分是训练集,一部分测试集

import xgboostfrom numpy import loadtxtfrom xgboost import XGBClassifierimport sklearnfrom sklearn.model_selection import train_test_splitfrom sklearn.metrics import accuracy_score# load datadataset = loadtxt('pima-indians-diabetes.csv', delimiter=",")X= dataset[:,0:8]Y = dataset[:,8]seed = 7test_size = 0.33X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)

这里我们使用的numpy中的加载文件的工具loadtxt先来将文件加载,然后我们使用切片的方式来获取特征x和标注y,然后使用sklearn工具的train_test_split来讲我们的数据集分成两部分,一部分是训练集,一部分验证集,test_size指定训练集的比例。因为这个是随机分的,所以假如运行多次,那么每一次获得到的数据集和测试集是不一样的,所以我们可以通过random_state指定随机的方式,也就是指定之后,运行无数次,训练集和测试集也都是一样的。

输出X_train和X_test的结果位:

我在做这一步的时候出现了一个问题,这个问题就是报错 ImportError: No module named model_selection ,这个模块是sklearn中的,我检查发现原因就是原因,我的sklearn版本太低了,所以升级以下就ok了

我们可以使用conda list来看当前的我们安装库的版本,所以我们升级这个版本就好了conda update scikit-learn,但是直接这样升级,它会去找国外的镜像,所以非常慢,而且还不一定安装成功,为了解决这个问题,我们可以使用国内的镜像,比如清华大学的镜像。

cmd环境下或者Prompt,输入:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/

conda config --set show_channel_urls yes

这样之后,我们就可以conda update scikit-learn

然后这就可以升级完成了,以后就不会报错了。解决完这个可能遇到的插曲之后,我们在来往下来看

我们的训练集和测试集数据已经有了,下面的任务是使用训练集来训练我们的模型,并且用测试集来测试我们的模型,得到我们模型的准确率:

model = XGBClassifier()model.fit(X, Y)y_pred = model.predict(X_test)predictions = [round(value) for value in y_pred]accuracy = accuracy_score(y_test, predictions)print("Accuracy: %.2f%%" % (accuracy * 100.0))

首先创建一个XGBClassifier的分类器,然后使用这个分类器来拟合我们的数据,这样我们xgboost的模型就建立了,然后我们可以使用这个模型来预测我们的测试集数据,它返回的结果是所有预测样本的0,1。结果为:

然后我们遍历这个列表,使用round来对每一个数进行处理,结果为:

那么这个就是所有的我们测试集的预测数据,那么我们拿它和y_test来一一进行比较,就可以得出我们的模型在测试集准确率,当前准确率为:

Accuracy: 88.19%

全部代码为:

我们在使用xgboost的过程中其实就是不断在地在往里面加树,一开始它有基准模型,然后在基准模型地基础上又加入了一个小地模型,使得整体地模型发生了变化,我们上面是直接地使用xgboost,其实我们也可以进行监控,每加上一棵树,每加上一个小模型都可以看到加完之后模型地结果是怎么样地,看一下这个过程中地lost值发生什么样地变化

eval_set = [(X_test, y_test)]model.fit(X_train, y_train, early_stopping_rounds=10, eval_metric="logloss", eval_set=eval_set, verbose=True)y_pred = model.predict(X_test)predictions = [round(value) for value in y_pred]accuracy = accuracy_score(y_test, predictions)print("Accuracy: %.2f%%" % (accuracy * 100.0))

首先我们创建一个eval_set,因为X_test和y_test这二者本身就是array,一个二维一个一维,然后用括号括起来,然后再用[]括起来,那么最终地效果就是[([[]],[])]

最为关键地其实就是下面拟合地过程,第一个和第二个数据还是我们地训练样本,这个训练样本用于拟合数据。然后第三个参数early_stopping_rounds=10表示如果我们再不断建立树地时候,loss值有10次没有降低地话,那么建树过程就停止了,模型就最终确定了。第四个参数eval_metric表示用什么loss作为评判地表准,这里使用logloss,第五个参数为测试集数据,我们每创建一棵树,就要用当前地模型来测试一下这个测试集,如果想要让这个测得地过程显示出来,我们需要指定verbose=True,不用我们输出,它会自动输出。

这段程序地运行结果为:

可以看出这个模型再第42次停止了,也就是说从第32次到42次模型地loss基本没有变化,我们最终模型对测试集地准确度为78.35%。

我们数据集中肯定有的特征肯定是建立树地效果最好地,我们建立完模型之后,我们可以以图像的形式画出来到底哪个特征是最好的。

from xgboost import plot_importance

from matplotlib import pyplot

plot_importance(model)

pyplot.show()

效果为

通过这个图可以看出来最重要的是第一个特征,最不重要的是第四个特征

xgboost的调参

第一个参数是学习率,一般设置为0.1以下

还有一些树的参数,比如max_depth、min_child_weight、subsample(建造树的时候要不要每次从总样本中选择百分之80)、colsample_bytree(特征选择百分之多少)、gamma(惩罚项,叶子节点个数越多损失越大)

还有正则化参数lambda(权重的L2正则化项)、alpha(权重的L1正则化项,可以应用在很高维度的情况下,使得算法的速度更快)

n_estimators表示建造树的个数

我们再建造树的过程中要进行一阶导和二阶导的运算,所以需要指定用什么损失函数来明确指定出来,这样才能基于这个函数进行一个求导的操作

我们有这么多的参数那么就涉及到一个调参的问题,究竟哪个参数能够使得我们的模型最好呢?

因为grid_result = grid_search.fit(X, Y)涉及到一个并行运算的问题,所以我们把它放到if __name__ =="__main__"中

我们来分析一下这个程序,这个程序我们的目的是找到最合适的学习率

我们用一个列表存放我们要测试的学习率,然后我们要将其转换成字典

这是GridSearchCV的使用要求

kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=7)为交叉验证,shuffle为洗牌

GridSearchCV中第一个参数为模型,第二个为我们要测试的参数,n_jobs为使用所有空闲的cpu,cv为我们使用交叉验证

grid_result = grid_search.fit(X, Y)为拟合我们的数据X,Y,返回值就是我们的参数所对应的效果

我们输出一下最好的那个学习率和loss值为:

这是最好的,下面的那个for循环是输出所有的:

至此我们可以知道最好的学习率应为0.1

相关推荐

# Python 3 # Python 3字典Dictionary(1)

Python3字典字典是另一种可变容器模型,且可存储任意类型对象。字典的每个键值(key=>value)对用冒号(:)分割,每个对之间用逗号(,)分割,整个字典包括在花括号({})中,格式如...

Python第八课:数据类型中的字典及其函数与方法

Python3字典字典是另一种可变容器模型,且可存储任意类型对象。字典的每个键值...

Python中字典详解(python 中字典)

字典是Python中使用键进行索引的重要数据结构。它们是无序的项序列(键值对),这意味着顺序不被保留。键是不可变的。与列表一样,字典的值可以保存异构数据,即整数、浮点、字符串、NaN、布尔值、列表、数...

Python3.9又更新了:dict内置新功能,正式版十月见面

机器之心报道参与:一鸣、JaminPython3.8的热乎劲还没过去,Python就又双叒叕要更新了。近日,3.9版本的第四个alpha版已经开源。从文档中,我们可以看到官方透露的对dic...

Python3 基本数据类型详解(python三种基本数据类型)

文章来源:加米谷大数据Python中的变量不需要声明。每个变量在使用前都必须赋值,变量赋值以后该变量才会被创建。在Python中,变量就是变量,它没有类型,我们所说的"类型"是变...

一文掌握Python的字典(python字典用法大全)

字典是Python中最强大、最灵活的内置数据结构之一。它们允许存储键值对,从而实现高效的数据检索、操作和组织。本文深入探讨了字典,涵盖了它们的创建、操作和高级用法,以帮助中级Python开发...

超级完整|Python字典详解(python字典的方法或操作)

一、字典概述01字典的格式Python字典是一种可变容器模型,且可存储任意类型对象,如字符串、数字、元组等其他容器模型。字典的每个键值key=>value对用冒号:分割,每个对之间用逗号,...

Python3.9版本新特性:字典合并操作的详细解读

处于测试阶段的Python3.9版本中有一个新特性:我们在使用Python字典时,将能够编写出更可读、更紧凑的代码啦!Python版本你现在使用哪种版本的Python?3.7分?3.5分?还是2.7...

python 自学,字典3(一些例子)(python字典有哪些基本操作)

例子11;如何批量复制字典里的内容2;如何批量修改字典的内容3;如何批量修改字典里某些指定的内容...

Python3.9中的字典合并和更新,几乎影响了所有Python程序员

全文共2837字,预计学习时长9分钟Python3.9正在积极开发,并计划于今年10月发布。2月26日,开发团队发布了alpha4版本。该版本引入了新的合并(|)和更新(|=)运算符,这个新特性几乎...

Python3大字典:《Python3自学速查手册.pdf》限时下载中

最近有人会想了,2022了,想学Python晚不晚,学习python有前途吗?IT行业行业薪资高,发展前景好,是很多求职群里严重的香饽饽,而要进入这个高薪行业,也不是那么轻而易举的,拿信工专业的大学生...

python学习——字典(python字典基本操作)

字典Python的字典数据类型是基于hash散列算法实现的,采用键值对(key:value)的形式,根据key的值计算value的地址,具有非常快的查取和插入速度。但它是无序的,包含的元素个数不限,值...

324页清华教授撰写【Python 3 菜鸟查询手册】火了,小白入门字典

如何入门学习python...

Python3.9中的字典合并和更新,了解一下

全文共2837字,预计学习时长9分钟Python3.9正在积极开发,并计划于今年10月发布。2月26日,开发团队发布了alpha4版本。该版本引入了新的合并(|)和更新(|=)运算符,这个新特性几乎...

python3基础之字典(python中字典的基本操作)

字典和列表一样,也是python内置的一种数据结构。字典的结构如下图:列表用中括号[]把元素包起来,而字典是用大括号{}把元素包起来,只不过字典的每一个元素都包含键和值两部分。键和值是一一对应的...

取消回复欢迎 发表评论:

请填写验证码