这是我的第300篇原创文章。
一、引言
一个预测模型的输出通常为介于0到1之间的一个值(pi),根据事前确定的阈值概率(cutoff value, probability threshold, pt),当pi > pt时,判断为阳性;当pi < pt时,判断为阴性。因此,患者被分成了预测阳性而施加干预和预测阴性而不施加干预的两组。
在预测阳性组中,存在着真阳性病人(TP)和假阳性病人(FP)。显然,治疗真阳性病人会带来受益(benefits),而治疗假阳性病人会造成伤害(harms)。选择不同的阈值概率,会改变TP和FP的比值,从而受益和伤害的改变。为了同时考虑受益和伤害,决策曲线分析中,将模型的临床效用量化为净获益(net benefit)。
所谓决策曲线,即是以不同的probability threshold为横坐标,其所对应的net benefit为纵坐标,画出的曲线。绘制模型的决策曲线,我们只需要模型输出的每个样本的预测概率(y_pred_score) 和 每个样本真实的分类(y_label) 。
二、实现过程
2.1 读取数据
data = pd.read_csv(r'Dataset.csv')
df = pd.DataFrame(data)
2.2 提取目标变量和特征变量
target = 'target'
features = df.columns.drop(target)
X = df[features]
y = df[target]
2.3 划分数据集
X_train, X_test, y_train, y_test = train_test_split(df[features], df[[target]], test_size=0.2, random_state=0)
2.4 归一化
mm1 = MinMaxScaler() # 特征进行归一化
X_train_m = mm1.fit_transform(X_train)
mm2 = MinMaxScaler() # 标签进行归一化
y_train_m = mm2.fit_transform(y_train)
2.5 模型构建与训练
model = LogisticRegression()
model.fit(X_train_m, y_train_m)
2.6 模型推理
X_test_m = mm1.transform(X_test) # 注意fit_transform() 和 transform()的区别
y_pred_m = model.predict(X_test_m)
y_scores = model.predict_proba(X_test_m)
y_pred = mm2.inverse_transform(np.reshape(y_pred_m, (-1, 1)))
2.7 绘制决策曲线
thresh_group = np.arange(0, 1, 0.05)
net_benefit_model = calculate_net_benefit_model(thresh_group, list(y_scores[:, 1]), y_test)
net_benefit_all = calculate_net_benefit_all(thresh_group, y_test)
fig, ax = plt.subplots()
ax = plot_DCA(ax, thresh_group, net_benefit_model, net_benefit_all)
plt.show()
结果:
作者简介: 读研期间发表6篇SCI数据算法相关论文,目前在某研究院从事数据算法相关研究工作,结合自身科研实践经历持续分享关于Python、数据分析、特征工程、机器学习、深度学习、人工智能系列基础知识与案例。关注gzh:数据杂坛,获取数据和源码学习更多内容。
原文链接: