“笔笔都是天意,生命没有败笔”
线性模型
1.步骤
2.Example
Suppose that students would get y points in final exam,if they spend x hours in paper PyTorch Tutorial.
2.1 Analyse
-
把数据集分为两部分:一部分用于训练,一部分用于测试模型性能
-
会出现的问题: Overfitting(过拟合):模型过于复杂(所包含的参数过多),以致于模型对训练集的拟合很好,但对未知数据预测很差。
-
解决方法:希望模型有较好的泛化能力,在训练集完成训练后,对于没见过的图像也能够正确识别。
-
通常会把训练集也分成两部分,一部分用于训练,一部分用于进行模型评估(开发集)
2.2 Model design
即找到y=f(x)函数
2.2.1 Linear model (线性模型)
- To simplify the model:
- 图像:
2.2.2 找最优权重(不同权重的直线的倾斜角度不同)
-
The machine starts with a random guess, w = random value
-
先取随机数,再评估。在选取了一个权重后,看它所表示的模型和数据集里的数据之间的偏移程度有多大
-
计算
y
^
\hat y
y^ (1) - y (1)、
y
^
\hat y
y^ (2) - y (2)、
y
^
\hat y
y^ (3) - y (3)。若选取的模型非常接近True Line,则这三个值的平方和是很小的。
-
所以要寻找一个评估模型,看模型和数据集里的数据之间的误差有多大,这个评估模型在机器学习中叫做Loss。
2.2.3 Training Loss
最终目标是找到一个权重值,使平均损失mean降到最低
-
假设 w = 3,结果如上图所示,平均损失mean=14/3
-
假设 w = 4,结果如下图所示,平均损失mean=56/3
-
假设 w = 0,结果如下图所示,平均损失mean=56/3
-
假设 w = 1,结果如下图所示,平均损失mean=14/3
-
假设 w = 2,结果如下图所示,平均损失mean=0
-
损失函数是针对一个样本的,对于整个Training set损失,需要把每一个样本的预测值和真值之间的差值平方相加,再除以样本总数,就得到了平均平方误差 (MSE: Mean Square Error)。
2.2.4 MSE
有时并不能保证算出0,所以需要考虑取哪些值作为 w 的候选值,由于并不能确定在这些候选值中能得到最优权重,所以需要用到穷举法。
穷举法:例如,经过测试发现在0-4之间,存在损失最小的权重,那么就把0-4之间所有可能的取值都计算出损失,得到下图的曲线,曲线的最低点,就是损失的最优权重。
2.3 代码实现
import numpy as np
import matplotlib.pyplot as plt
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
def forward(x):
return x * w
def loss(x, y):
y_pred = forward(x)
return (y_pred - y) * (y_pred - y)
w_list = []
mse_list = []
for w in np.arange(0.0, 4.1, 0.1):
print('w=', w)
l_sum = 0
for x_val, y_val in zip(x_data, y_data):
y_pred_val = forward(x_val)
loss_val = loss(x_val, y_val)
l_sum += loss_val
print('\t', x_val, y_val, y_pred_val, loss_val)
print('MSE=', l_sum / 3)
w_list.append(w)
mse_list.append(l_sum / 3)
plt.plot(w_list, mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()
2.4 结果截图
3.Exercise
3.1 代码实现
import numpy
import numpy as np
import matplotlib.pyplot as plt
from matplotlib import cm
from mpl_toolkits.mplot3d import Axes3D
x_data = [1.0, 2.0, 3.0]
y_data = [1.5, 4.0, 6.5]
def forward(x):
return x * w + b
def loss(y_pred, y): 定义损失函数
return (y_pred - y) * (y_pred - y)
w_list = np.arange(0.0, 4.0, 0.1)
b_list = np.arange(-2.0, 2.1, 0.1)
w, b = numpy.meshgrid(w_list, b_list, indexing='ij')
mse_list = []
l_sum = 0.
for x_val, y_val in zip(x_data, y_data):
y_pred_val = forward(x_val)
loss_val = loss(y_pred_val, y_val)
l_sum += loss_val
mse_list.append(l_sum/3)
fig = plt.figure(figsize=(10, 10), dpi=300)
ax = Axes3D(fig)
surf = ax.plot_surface(w, b, np.array(mse_list[0]), rstride=1, cstride=1, cmap=cm.coolwarm, linewidth=0, antialiased=False)
ax.set_zlim(0, 40)
ax.set_xlabel("w")
ax.set_ylabel("b")
ax.set_zlabel("loss")
ax.text(0.2, 2, 43, "Cost Value", color='black')
fig.colorbar(surf, shrink=0.5, aspect=5)
plt.show()
3.2 结果截图
本文参考:《PyTorch深度学习实践》
At the end of my article
我是璞玉牧之,持续输出优质文章,希望和你一起学习进步!!!原创不易,如果本文对你有帮助,可以 点赞+收藏+评论 支持一下哦!我们下期见~~