百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

机器学习100天-Day2103 Tensorflow模型保存读取&可视化

toyiye 2024-06-21 12:38 8 浏览 0 评论

说明:本文依据《Sklearn 与 TensorFlow 机器学习实用指南》完成,所有版权和解释权均归作者和翻译成员所有,我只是搬运和做注解。

进入第二部分深度学习

第九章启动并运行Tensorflow

Tensorflow是一款用于数值计算的强大的开源软件库,特别适用于大规模机器学习的微调。

它的基本原理很简单:首先在 Python 中定义要执行的计算图(例如图 9-1),然后 TensorFlow 使用该图并使用优化的 C++ 代码高效运行该图。

  • 提供了一个非常简单的 Python API,名为 TF.Learn2(tensorflow.con trib.learn),与 Scikit-Learn 兼容。正如你将会看到的,你可以用几行代码来训练不同类型的神经网络。之前是一个名为 Scikit Flow(或 Skow)的独立项目。
  • 提供了另一个简单的称为 TF-slim(tensorflow.contrib.slim)的 API 来简化构建,训练和求出神经网络。
  • 其他几个高级 API 已经在 TensorFlow 之上独立构建,如 Keras 或 Pretty Tensor。
  • 它的主要 Python API 提供了更多的灵活性(以更高复杂度为代价)来创建各种计算,包括任何你能想到的神经网络结构。
  • 它提供了几个高级优化节点来搜索最小化损失函数的参数。由于 TensorFlow 自动处理计算您定义的函数的梯度,因此这些非常易于使用。这称为自动分解(或autodi)。
  • 它还附带一个名为 TensorBoard 的强大可视化工具,可让您浏览计算图表,查看学习曲线等。
  • 这一章主要是介绍TensorFlow基础知识,从安装到创建,运行,保存和可视化简单的计算图
  • 我发现之前看的tf相关教程还是太零散了,当时应该直接跳到这里……

7.模型保存和读取

完成模型训练后应该把参数保存到磁盘,所以你可以随时随地回到它,在另一个程序中使用它,与其他模型比较。

此外,您可能希望在训练期间定期保存检查点,以便如果您的计算机在训练过程中崩溃,您可以从上次检查点继续进行,而不是从头开始。

TensorFlow 可以轻松保存和恢复模型。 只需在构造阶段结束(创建所有变量节点之后)创建一个保存节点; 那么在执行阶段,只要你想保存模型,只要调用它的save()方法“save_path = saver.save(sess, "需要保存的地址")”。

恢复模型,在构建阶段结束时创建一个保存器,就像之前一样,但是在执行阶段的开始,而不是使用init节点初始化变量,可以调用restore()方法 的保存器对象。

housing = fetch_california_housing()
m, n = housing.data.shape
print("数据集:{}行,{}列".format(m, n))
# 使用np.c_按照colunm来组合array,其实就是生成m个元素为1的list,然后和housing.data数据合并,在每个housing.data数组前加1
housing_data_plus_bias = np.c_[np.ones((m, 1)), housing.data]
# 对数据进行归一化处理,这部分有了调整
scaler = StandardScaler()
scaled_housing_data = scaler.fit_transform(housing.data)
scaled_housing_data_plus_bias = np.c_[np.ones((m, 1)), scaled_housing_data]
# 迭代次数和学习频率
n_epochs = 1000
learning_rate = 0.01
# 原始的X,y初始化
# X = tf.constant(scaled_housing_data_plus_bias, dtype=tf.float32, name="X")
# y = tf.constant(housing.target.reshape(-1, 1), dtype=tf.float32, name="y")
# 使用占位符
X = tf.placeholder(tf.float32, shape=(None, n + 1), name="X")
y = tf.placeholder(tf.float32, shape=(None, 1), name="y")
# random_uniform()函数在图形中创建一个节点,它将生成包含随机值的张量,给定其形状和值作用域,就像 NumPy 的rand()函数一样。
theta = tf.Variable(tf.random_uniform([n + 1, 1], -1.0, 1.0), name="theta")
y_pred = tf.matmul(X, theta, name="predictions")
error = y_pred - y
mse = tf.reduce_mean(tf.square(error), name="mse")
# 原始手动下降
# gradients = 2 / m * tf.matmul(tf.transpose(X), error)
# assign()函数创建一个为变量分配新值的节点。 在这种情况下,它实现了批次梯度下降步骤
# training_op = tf.assign(theta, theta - learning_rate * gradients)
# 使用优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate)
training_op = optimizer.minimize(mse)
init = tf.global_variables_initializer()
# 这里初始化一个saver
saver = tf.train.Saver()
n_epochs = 10
batch_size = 100
n_batches = int(np.ceil(m / batch_size))
def fetch_batch(epoch, batch_index, batch_size):
 know = np.random.seed(epoch * n_batches + batch_index) # not shown in the book
 # print("我是know:", know)
 indices = np.random.randint(m, size=batch_size) # not shown
 X_batch = scaled_housing_data_plus_bias[indices] # not shown
 y_batch = housing.target.reshape(-1, 1)[indices] # not shown
 return X_batch, y_batch
with tf.Session() as sess:
 sess.run(init)
 for epoch in range(n_epochs):
 for batch_index in range(n_batches):
 X_batch, y_batch = fetch_batch(epoch, batch_index, batch_size)
 sess.run(training_op, feed_dict={X: X_batch, y: y_batch})
 best_theta = theta.eval()
 #这个路径要注意,前面加‘.’表明是保存在项目文件下的tmp文件夹内
 save_path = saver.save(sess, "./tmp/tensorflow01.ckpt")
print(best_theta)

8.使用TensorBoard展现图形和训练曲线

这是一个新的内容,请注意

到目前位置,仍然依靠print()函数可视化训练过程中的进度。

有一个更好的方法:进入 TensorBoard。提供一些训练统计信息,它将在您的网络浏览器中显示这些统计信息的良好交互式可视化(例如学习曲线)。 您还可以提供图形的定义,它将为您提供一个很好的界面来浏览它。 这对于识别图中的错误,找到瓶颈等是非常有用的。

  • 第一步是调整程序,以便将图形定义和一些训练统计信息(例如,training_error(MSE))写入 TensorBoard 将读取的日志目录。 您每次运行程序时都需要使用不同的日志目录,否则 TensorBoard 将会合并来自不同运行的统计信息,这将会混乱可视化。 最简单的解决方案是在日志目录名称中包含时间戳。 在程序开始处添加以下代码
from datetime import datetime
now = datetime.utcnow().strftime("%Y%m%d%H%M%S")
root_logdir = "tf_logs"
logdir = "{}/run-{}/".format(root_logdir, now)

接下来,在构建阶段结束时添加以下代码

mse_summary = tf.summary.scalar('MSE', mse)
file_writer = tf.summary.FileWriter(logdir, tf.get_default_graph())

整体代码

from datetime import datetime
housing = fetch_california_housing()
m, n = housing.data.shape
print("数据集:{}行,{}列".format(m, n))
# 使用np.c_按照colunm来组合array,其实就是生成m个元素为1的list,然后和housing.data数据合并,在每个housing.data数组前加1
housing_data_plus_bias = np.c_[np.ones((m, 1)), housing.data]
# 对数据进行归一化处理,这部分有了调整
scaler = StandardScaler()
scaled_housing_data = scaler.fit_transform(housing.data)
scaled_housing_data_plus_bias = np.c_[np.ones((m, 1)), scaled_housing_data]
now = datetime.utcnow().strftime("%Y%m%d%H%M%S")
root_logdir = "tf_logs"
logdir = "{}/run-{}/".format(root_logdir, now)
# 迭代次数和学习频率
n_epochs = 1000
learning_rate = 0.01
# 原始的X,y初始化
# X = tf.constant(scaled_housing_data_plus_bias, dtype=tf.float32, name="X")
# y = tf.constant(housing.target.reshape(-1, 1), dtype=tf.float32, name="y")
# 使用占位符
X = tf.placeholder(tf.float32, shape=(None, n + 1), name="X")
y = tf.placeholder(tf.float32, shape=(None, 1), name="y")
# random_uniform()函数在图形中创建一个节点,它将生成包含随机值的张量,给定其形状和值作用域,就像 NumPy 的rand()函数一样。
theta = tf.Variable(tf.random_uniform([n + 1, 1], -1.0, 1.0), name="theta")
y_pred = tf.matmul(X, theta, name="predictions")
error = y_pred - y
mse = tf.reduce_mean(tf.square(error), name="mse")
# 原始手动下降
# gradients = 2 / m * tf.matmul(tf.transpose(X), error)
# assign()函数创建一个为变量分配新值的节点。 在这种情况下,它实现了批次梯度下降步骤
# training_op = tf.assign(theta, theta - learning_rate * gradients)
# 使用优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate)
training_op = optimizer.minimize(mse)
init = tf.global_variables_initializer()
# 这里初始化一个saver
saver = tf.train.Saver()
mse_summary = tf.summary.scalar('MSE', mse)
file_writer = tf.summary.FileWriter(logdir, tf.get_default_graph())
n_epochs = 10
batch_size = 100
n_batches = int(np.ceil(m / batch_size))
def fetch_batch(epoch, batch_index, batch_size):
 know = np.random.seed(epoch * n_batches + batch_index) # not shown in the book
 # print("我是know:", know)
 indices = np.random.randint(m, size=batch_size) # not shown
 X_batch = scaled_housing_data_plus_bias[indices] # not shown
 y_batch = housing.target.reshape(-1, 1)[indices] # not shown
 return X_batch, y_batch
with tf.Session() as sess:
 sess.run(init)
 for epoch in range(n_epochs): # not shown
 for batch_index in range(n_batches):
 X_batch, y_batch = fetch_batch(epoch, batch_index, batch_size)
 if batch_index % 10 == 0:
 summary_str = mse_summary.eval(feed_dict={X: X_batch, y: y_batch})
 step = epoch * n_batches + batch_index
 file_writer.add_summary(summary_str, step)
 sess.run(training_op, feed_dict={X: X_batch, y: y_batch})
 best_theta = theta.eval()
file_writer.close()
print(best_theta)

这时会在项目根目录下面看到tf_logs文件夹,打开后里面有生成的模型数据。使用cmd命令行进入到该目录下,输入命令“tensorboard --logdir=run-20190121033432”其中“run-20190121033432”是你模型的编码,需要重新配置。

运行后会出现下图,选择其中“http://DESKTOP-1LQ66UG:600并在”浏览器中打开。

可能会出现的问题:”tensorboard' 不是内部或外部命令,也不是可运行的程序“,需要检查tensorflow库里是否有tensorboard,如果有,就需要将tensorboard的路径添加入环境变量中。

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码