百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

在Python中实现随机森林分类模型

toyiye 2024-06-21 12:27 13 浏览 0 评论

随机森林算法用于分类和回归。随机森林是一种由多个决策树组成的集合学习方法。通过平均几棵决策树的影响,随机森林往往会改善预测。

有许多不同的模型可用于对分类数据进行预测。Logistic回归是二项数据中最常见的一种。其他方法包括支持向量机(“SVM”),朴素贝叶斯和k最近邻。随机森林倾向于在模型具有大量特征的情景中发挥作用,这些特征单独具有较弱的预测能力,但集体强大得多。

在本文中,我将为您提供一个关于如何在Python中为分类问题实现随机森林模型的快速指南。

加载数据

为了理解如何在Python中实现随机森林模型,我们将用皮马印第安人糖尿病数据集做一个非常简单的例子。你可以从很多来源找到它,或者你可以复制下面的代码。

import pandas as pd

# list for column headers

names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class']

# open file with pd.read_csv

df = pd.read_csv("https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv", names=names)

print(df.shape)

# print head of data set

print(df.head())

虽然皮马印第安人糖尿病数据集不一定是最适合所有其他模型的随机森林数据的一个例子,但真正的目标是通过简单的数据集来实现模型的过程。

创建一个随机森林模型

让我们来创建我们的模型。我们试图预测患者是否患有糖尿病。这与“class”栏一致,这将成为我们的自变量。我们将使用所有其他列作为我们模型的特征。

X = df.drop(‘class’, axis=1)

y = df[‘class’]

我们将使用train-test-split将数据分解为训练数据和测试数据。

from sklearn.model_selection import train_test_split

# implementing train-test-split

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=66)

现在,我们可以创建随机森林模型。

from sklearn import model_selection

# random forest model creation

rfc = RandomForestClassifier()

rfc.fit(X_train,y_train)

# predictions

rfc_predict = rfc.predict(X_test)

评估性能

我们将导入cross_val_score、classification_report和sion_matrix。

from sklearn.model_selection import cross_val_score

from sklearn.metrics import classification_report, confusion_matrix

我们还将运行交叉验证以更好地了解结果。

rfc_cv_score = cross_val_score(rfc, X, y, cv=10, scoring=’roc_auc’)

现在,我们将打印出结果。

print("=== Confusion Matrix ===")

print(confusion_matrix(y_test, rfc_predict))

print('\n')

print("=== Classification Report ===")

print(classification_report(y_test, rfc_predict))

print('\n')

print("=== All AUC Scores ===")

print(rfc_cv_score)

print('\n')

print("=== Mean AUC Score ===")

print("Mean AUC Score - Random Forest: ", rfc_cv_score.mean())

你应该得到一个如下所示的打印输出:

混淆矩阵对于给你假阳性和假阴性是有用的。分类报告告诉你模型的准确性。ROC曲线绘制出了不同阈值下的真阳性率和假阳性率。在交叉验证模型中使用的roc_auc评分显示ROC曲线下的面积。

我们将根据roc_auc评分来评估模型的分数,即.792。接下来我们要做的是调整我们的超参数,看看我们是否能提高模型的性能。

调优Hyperparameters

我们将从sklearn中使用随机搜索cv优化我们的超参数。我决定关注3个超参数:n_estimators、max_features和max_depth。

from sklearn.model_selection import RandomizedSearchCV

# Number of trees in random forest

n_estimators = [int(x) for x in np.linspace(start = 200, stop = 2000, num = 10)]

# Number of features to consider at every split

max_features = [‘auto’, ‘sqrt’]

# Maximum number of levels in tree

# max_depth = [int(x) for x in np.linspace(10, 110, num = 11)]

max_depth = [int(x) for x in np.linspace(100, 500, num = 11)]

max_depth.append(None)

# Create the random grid

random_grid = {

‘n_estimators’: n_estimators,

‘max_features’: max_features,

‘max_depth’: max_depth

}

# Random search of parameters, using 3 fold cross validation,

# search across 100 different combinations, and use all available cores

rfc_random = RandomizedSearchCV(estimator = rfc, param_distributions = random_grid, n_iter = 100, cv = 3, verbose=2, random_state=42, n_jobs = -1)

# Fit the random search model

rfc_random.fit(X_train, y_train)

print(rfc_random.best_params_)

这应该需要几分钟时间才能运行,底部的打印输出显示了我们模型的最佳超参数。

我的结果是:'n_estimators'= 600; 'max_features'='sqrt'; 'max_depth':300.现在我们可以将它们重新插入到模型中,以查看它是否改进了我们的性能。

rfc = RandomForestClassifier(n_estimators=600, max_depth=300, max_features='sqrt')

rfc.fit(X_train,y_train)

rfc_predict = rfc.predict(X_test)

rfc_cv_score = cross_val_score(rfc, X, y, cv=10, scoring='roc_auc')

print("=== Confusion Matrix ===")

print(confusion_matrix(y_test, rfc_predict))

print('\n')

print("=== Classification Report ===")

print(classification_report(y_test, rfc_predict))

print('\n')

print("=== All AUC Scores ===")

print(rfc_cv_score)

print('\n')

print("=== Mean AUC Score ===")

print("Mean AUC Score - Random Forest: ", rfc_cv_score.mean())

从输出中我们可以看到结果略有改善。我们的roc_auc得分从0.793提高到了.829。缺点是我们的假阳性数量略有增加(但假阴性降低)。

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码