百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

机器学习之逻辑回归(纯python实现)

toyiye 2024-09-04 20:11 6 浏览 0 评论

机器学习之逻辑回归(纯python实现)

logistic回归是一种广义的线性回归,通过构造回归函数,利用机器学习来实现分类或者预测。

原理

上一文简单介绍了线性回归,与逻辑回归的原理是类似的。

  1. 预测函数(h)。该函数就是分类函数,用来预测输入数据的判断结果。过程非常关键,需要预测函数的“大概形式”, 比如是线性还是非线性的。 本文参考机器学习实战的相应部分,看一下数据集。
// 两个特征
-0.017612 14.053064 0
-1.395634 4.662541 1
-0.752157 6.538620 0
-1.322371 7.152853 0
0.423363 11.054677 0
0.406704 7.067335 1
复制代码
  1. 如上图,红绿代表两种不同的分类。可以预测分类函数大概是一条直线。Cost函数(损失函数):该函数预测的输出h和训练数据类别y之间的偏差,(h-y)或者其他形式。综合考虑所有训练数据的cost, 将其求和或者求平均,极为J函数, 表示所有训练数据预测值和实际值的偏差。
  2. 显然,J函数的值越小,表示预测的函数越准确(即h函数越准确),因此需要找到J函数的最小值。有时需要用到梯度下降。

具体过程

构造预测函数

逻辑回归名为回归,实际为分类,用于两分类问题。 这里直接给出sigmoid函数。

接下来确定分类的边界,上面有提到,该数据集需要一个线性的边界。 不同数据需要不同的边界。

确定了分类函数,将其输入记做z ,那么

向量x是特征变量, 是输入数据。此数据有两个特征,可以表示为z = w0x0 + w1x1 + w2x2。w0是常数项,需要构造x0等于1(见后面代码)。 向量W是回归系数特征,T表示为列向量。 之后就是确定最佳回归系数w(w0, w1, w2)。cost函数

综合以上,预测函数为:

这里不做推导,可以参考文章 Logistic回归总结

有了上述的cost函数,可以使用梯度上升法求函数J的最小值。推导见上述链接。

综上:梯度更新公式如下:

接下来是python代码实现:

# sigmoid函数和初始化数据
def sigmoid(z):
 return 1 / (1 + np.exp(-z))
def init_data():
 data = np.loadtxt('data.csv')
 dataMatIn = data[:, 0:-1]
 classLabels = data[:, -1]
 dataMatIn = np.insert(dataMatIn, 0, 1, axis=1) #特征数据集,添加1是构造常数项x0
 return dataMatIn, classLabels
复制代码
// 梯度上升
def grad_descent(dataMatIn, classLabels):
 dataMatrix = np.mat(dataMatIn) #(m,n)
 labelMat = np.mat(classLabels).transpose()
 m, n = np.shape(dataMatrix)
 weights = np.ones((n, 1)) #初始化回归系数(n, 1)
 alpha = 0.001 #步长
 maxCycle = 500 #最大循环次数
 for i in range(maxCycle):
 h = sigmoid(dataMatrix * weights) #sigmoid 函数
 weights = weights + alpha * dataMatrix.transpose() * (labelMat - h) #梯度
 return weights
复制代码
// 计算结果
if __name__ == '__main__':
 dataMatIn, classLabels = init_data()
 r = grad_descent(dataMatIn, classLabels)
 print(r)
复制代码

输入如下:

[[ 4.12414349]
 [ 0.48007329]
 [-0.6168482 ]]
复制代码

上述w就是所求的回归系数。w0 = 4.12414349, w1 = 0.4800, w2=-0.6168 之前预测的直线方程0 = w0x0 + w1x1 + w2x2, 带入回归系数,可以确定边界。 x2 = (-w0 - w1*x1) / w2

画出函数图像:

def plotBestFIt(weights):
 dataMatIn, classLabels = init_data()
 n = np.shape(dataMatIn)[0]
 xcord1 = []
 ycord1 = []
 xcord2 = []
 ycord2 = []
 for i in range(n):
 if classLabels[i] == 1:
 xcord1.append(dataMatIn[i][1])
 ycord1.append(dataMatIn[i][2])
 else:
 xcord2.append(dataMatIn[i][1])
 ycord2.append(dataMatIn[i][2])
 fig = plt.figure()
 ax = fig.add_subplot(111)
 ax.scatter(xcord1, ycord1,s=30, c='red', marker='s')
 ax.scatter(xcord2, ycord2, s=30, c='green')
 x = np.arange(-3, 3, 0.1)
 y = (-weights[0, 0] - weights[1, 0] * x) / weights[2, 0] #matix
 ax.plot(x, y)
 plt.xlabel('X1')
 plt.ylabel('X2')
 plt.show()
复制代码

如下:

算法改进

随机梯度上升

上述算法中,每次循环矩阵都会进行m * n次乘法计算,时间复杂度是maxCycles* m * n。当数据量很大时, 时间复杂度是很大。 这里尝试使用随机梯度上升法来进行改进。 随机梯度上升法的思想是,每次只使用一个数据样本点来更新回归系数。这样就大大减小计算开销。 算法如下:

def stoc_grad_ascent(dataMatIn, classLabels):
 m, n = np.shape(dataMatIn)
 alpha = 0.01
 weights = np.ones(n)
 for i in range(m):
 h = sigmoid(sum(dataMatIn[i] * weights)) #数值计算
 error = classLabels[i] - h
 weights = weights + alpha * error * dataMatIn[i]
 return weights
复制代码

进行测试:

随机梯度上升的改进

def stoc_grad_ascent_one(dataMatIn, classLabels, numIter=150):
 m, n = np.shape(dataMatIn)
 weights = np.ones(n)
 for j in range(numIter):
 dataIndex = list(range(m))
 for i in range(m):
 alpha = 4 / (1 + i + j) + 0.01 #保证多次迭代后新数据仍然有影响力
 randIndex = int(np.random.uniform(0, len(dataIndex)))
 h = sigmoid(sum(dataMatIn[i] * weights)) # 数值计算
 error = classLabels[i] - h
 weights = weights + alpha * error * dataMatIn[i]
 del(dataIndex[randIndex])
 return weights
复制代码

可以对上述三种情况的回归系数做个波动图。 可以发现第三种方法收敛更快。 评价算法优劣势看它是或否收敛,是否达到稳定值,收敛越快,算法越优。

总结

这里用到的梯度上升和梯度下降是一样的,都是求函数的最值, 符号需要变一下。 梯度意味着分别沿着x, y的方向移动一段距离。(cost分别对x, y)的导数。

完整代码请查看: github: logistic regression

参考文章: 机器学习之Logistic回归与Python实现

机器学习笔记:Logistic回归总结

机器学习基本算法系列之逻辑回归参考文献:K码农-http://kmanong.top/kmn/qxw/form/home?top_cate=28

相关推荐

# Python 3 # Python 3字典Dictionary(1)

Python3字典字典是另一种可变容器模型,且可存储任意类型对象。字典的每个键值(key=>value)对用冒号(:)分割,每个对之间用逗号(,)分割,整个字典包括在花括号({})中,格式如...

Python第八课:数据类型中的字典及其函数与方法

Python3字典字典是另一种可变容器模型,且可存储任意类型对象。字典的每个键值...

Python中字典详解(python 中字典)

字典是Python中使用键进行索引的重要数据结构。它们是无序的项序列(键值对),这意味着顺序不被保留。键是不可变的。与列表一样,字典的值可以保存异构数据,即整数、浮点、字符串、NaN、布尔值、列表、数...

Python3.9又更新了:dict内置新功能,正式版十月见面

机器之心报道参与:一鸣、JaminPython3.8的热乎劲还没过去,Python就又双叒叕要更新了。近日,3.9版本的第四个alpha版已经开源。从文档中,我们可以看到官方透露的对dic...

Python3 基本数据类型详解(python三种基本数据类型)

文章来源:加米谷大数据Python中的变量不需要声明。每个变量在使用前都必须赋值,变量赋值以后该变量才会被创建。在Python中,变量就是变量,它没有类型,我们所说的"类型"是变...

一文掌握Python的字典(python字典用法大全)

字典是Python中最强大、最灵活的内置数据结构之一。它们允许存储键值对,从而实现高效的数据检索、操作和组织。本文深入探讨了字典,涵盖了它们的创建、操作和高级用法,以帮助中级Python开发...

超级完整|Python字典详解(python字典的方法或操作)

一、字典概述01字典的格式Python字典是一种可变容器模型,且可存储任意类型对象,如字符串、数字、元组等其他容器模型。字典的每个键值key=>value对用冒号:分割,每个对之间用逗号,...

Python3.9版本新特性:字典合并操作的详细解读

处于测试阶段的Python3.9版本中有一个新特性:我们在使用Python字典时,将能够编写出更可读、更紧凑的代码啦!Python版本你现在使用哪种版本的Python?3.7分?3.5分?还是2.7...

python 自学,字典3(一些例子)(python字典有哪些基本操作)

例子11;如何批量复制字典里的内容2;如何批量修改字典的内容3;如何批量修改字典里某些指定的内容...

Python3.9中的字典合并和更新,几乎影响了所有Python程序员

全文共2837字,预计学习时长9分钟Python3.9正在积极开发,并计划于今年10月发布。2月26日,开发团队发布了alpha4版本。该版本引入了新的合并(|)和更新(|=)运算符,这个新特性几乎...

Python3大字典:《Python3自学速查手册.pdf》限时下载中

最近有人会想了,2022了,想学Python晚不晚,学习python有前途吗?IT行业行业薪资高,发展前景好,是很多求职群里严重的香饽饽,而要进入这个高薪行业,也不是那么轻而易举的,拿信工专业的大学生...

python学习——字典(python字典基本操作)

字典Python的字典数据类型是基于hash散列算法实现的,采用键值对(key:value)的形式,根据key的值计算value的地址,具有非常快的查取和插入速度。但它是无序的,包含的元素个数不限,值...

324页清华教授撰写【Python 3 菜鸟查询手册】火了,小白入门字典

如何入门学习python...

Python3.9中的字典合并和更新,了解一下

全文共2837字,预计学习时长9分钟Python3.9正在积极开发,并计划于今年10月发布。2月26日,开发团队发布了alpha4版本。该版本引入了新的合并(|)和更新(|=)运算符,这个新特性几乎...

python3基础之字典(python中字典的基本操作)

字典和列表一样,也是python内置的一种数据结构。字典的结构如下图:列表用中括号[]把元素包起来,而字典是用大括号{}把元素包起来,只不过字典的每一个元素都包含键和值两部分。键和值是一一对应的...

取消回复欢迎 发表评论:

请填写验证码