2.2 数据预处理
pandas预处理原始数据,并将原始数据转换为张量格式
import pandas as pd
data = pd.read_csv(data_file)
print(data)
NumRooms Alley Price
0 NaN Pave 127500
1 2.0 NaN 106000
2 4.0 NaN 178100
3 NaN NaN 140000
通过位置索引iloc,我们将data分成inputs和outputs, 其中前者为data的前两列,而后者为data的最后一列。 对于inputs中缺少的数值,我们用同一列的均值替换“NaN”项。
inputs, outputs = data.iloc[:, 0:2], data.iloc[:, 2]
inputs = inputs.fillna(inputs.mean())
print(inputs)
NumRooms Alley
0 3.0 Pave
1 2.0 NaN
2 4.0 NaN
3 3.0 NaN
[对于inputs中的类别值或离散值,我们将“NaN”视为一个类别。] 由于“巷子类型”(“Alley”)列只接受两种类型的类别值“Pave”和“NaN”, pandas可以自动将此列转换为两列“Alley_Pave”和“Alley_nan”。 巷子类型为“Pave”的行会将“Alley_Pave”的值设置为1,“Alley_nan”的值设置为0。 缺少巷子类型的行会将“Alley_Pave”和“Alley_nan”分别设置为0和1。
inputs = pd.get_dummies(inputs, dummy_na=True)
print(inputs)
NumRooms Alley_Pave Alley_nan
0 3.0 1 0
1 2.0 0 1
2 4.0 0 1
3 3.0 0 1
2.3 线性代数
2.3.1 标量
仅包含一个数值被称为标量(scalar), 如果要将此华氏度值转换为更常用的摄氏度, 则可以计算表达式表示所有实数标量的空间,表达式表示x是一个实值标量的正式形式
2.3.2 向量
向量(vector)可以被视为标量值组成的列表。一个向量X由n个实值标量组成,可以将其表示为 向量的长度通常称为向量的维度。 形状(shape)是一个元素组,列出了张量沿每个轴的长度(维数)
2.3.3 矩阵
正如向量将标量从零阶推广到一阶,矩阵将向量从一阶推广到二阶,数学表示法使用 来表示矩阵A
2.3.4 张量
张量是描述具有任意数量轴的n维数组的通用方法。 例如,向量是一阶张量,矩阵是二阶张量。
2.3.5 张量算法的基本性质
给定具有相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量。两个矩阵的按元素乘法称为Hadamard积(Hadamard product)数学符号
A * B
<tf.Tensor: shape=(5, 4), dtype=float32, numpy=
array([[ 0., 1., 4., 9.],
[ 16., 25., 36., 49.],
[ 64., 81., 100., 121.],
[144., 169., 196., 225.],
[256., 289., 324., 361.]], dtype=float32)>
将张量乘以或加上一个标量不会改变张量的形状,其中张量的每个元素都将与标量相加或相乘。
2.3.6 降维
我们可以对任意张量进行的一个有用的操作是计算其元素的和。 数学表示法使用 符号表示求和。为了表示长度为d的向量中元素的总和,可以记为 代码里的求和函数
x = tf.range(4, dtype=tf.float32)
x, tf.reduce_sum(x)
(<tf.Tensor: shape=(4,), dtype=float32, numpy=array([0., 1., 2., 3.], dtype=float32)>,
<tf.Tensor: shape=(), dtype=float32, numpy=6.0>)
我们可以表示任意形状张量的元素和。例如矩阵A中元素的和可以记为
默认情况下,调用求和函数会沿所有的轴降低张量的维度,使它变为一个标量。我们还可以指定张量沿哪一个轴来通过求和降低维度。以矩阵为例,为了通过求和所有行的元素来降维(轴0 纵轴),可以在调用函数时指定axis=0。 由于输入矩阵沿0轴降维以生成输出向量,因此输入轴0的维数在输出形状中消失。
A_sum_axis0 = A.sum(axis=0)
A_sum_axis0, A_sum_axis0.shape
(array([40., 45., 50., 55.]), (4,))
与求和相关的量是平均值(mean或average)
有时在调用函数来计算总和或均值时保持轴数不变会很有用
sum_A = A.sum(axis=1, keepdims=True)
sum_A
array([[ 6.],
[22.],
[38.],
[54.],
[70.]])
2.3.7 点积
给定两个向量x,y,他们的点积是相同位置的按元素乘积的和
y = np.ones(4)
x, y, np.dot(x, y)
(array([0., 1., 2., 3.]), array([1., 1., 1., 1.]), array(6.))
2.3.8 矩阵-向量积
定义矩阵 和向量 我们让矩阵A用它的行向量表示:
其中每个 都是行向量,表示矩阵的第i行。矩阵向量积Ax是一个长度为m的列向量,其第i个元素是点积
我们也可以使用矩阵-向量积来描述在给定前一层的值时, 求解神经网络每一层所需的复杂计算
A.shape, x.shape, tf.linalg.matvec(A, x)
(TensorShape([5, 4]),
TensorShape([4]),
<tf.Tensor: shape=(5,), dtype=float32, numpy=array([ 14., 38., 62., 86., 110.], dtype=float32)>)
2.3.9 矩阵-矩阵乘法
假设有两个矩阵 和 用行向量 表示矩阵A的第i行,并让列向量 作为矩阵B的第j列。要生成矩阵积 ,最简单的方法是考虑A的行向量和B的列向量:
2.3.10 范数
向量的范数是表示一个向量有多大。
在线性代数中,向量范数是将向量映射到标量的函数 。 给定任意向量x,向量范数要满足一些属性。 第一个性质是:如果我们按常数因子 缩放向量的所有元素, 其范数也会按相同常数因子的绝对值缩放:
第二个性质是熟悉的三角不等式:
第三个性质简单地说范数必须是非负的:
这是有道理的。因为在大多数情况下,任何东西的最小的大小是0。 最后一个性质要求范数最小为0,当且仅当向量全由0组成。 表示任何一个
欧几里得距离是一个 范数: 假设n维向量x中的元素是 ,其 范数是向量元素平方和的平方根:
计算方式为:
u = tf.constant([3.0, -4.0])
tf.norm(u)
<tf.Tensor: shape=(), dtype=float32, numpy=5.0>
矩阵 的 Frobenius范数是矩阵元素平方和和平方根: