经典图片(花的图片大全大图)

  • 时间:
  • 浏览:62
  • 来源:奥一装修网

令人印象深刻的10幅机器学习经典图片

机器学习入门,总有几张图,印象深刻。以下是十个经典图片,说明机器学习,很有启发性:

1. 训练错误和测试错误

"s图片告诉我们,训练误差越小,不一定是最好的。训练误差和测试误差要达到一个平衡,这是最好的。

下图显示了ESL图2.11、训练误差和测试误差与模型复杂性之间的关系

2. “欠拟合”和”过拟合”

下面的数据点是由绿色曲线生成的。拟合参数为m,m得到的模型为红色曲线。可以看出,如果m太小,得到的模型不够复杂,无法还原真实模型,即“欠拟合”。如果m太大,得到的曲线复杂度太高,模型无法真实还原,即“过拟合”。你猜怎么着?还是要在“不合身”和“过度合身”之间找到平衡

3. 奥卡姆剃刀(Occam’s razor)

贝叶斯推理为什么包含奥卡姆剃刀原理?

下图显示了复杂模型变得低效的原因。横轴表示贝叶斯理论的报告模型可以在可能的数据集上准确预测的可能性。P(D|H1)表示当使用复杂模型H1时,数据集D被准确预测的概率和置信度。P(D|H2)表示当使用简单模型H2时,数据集D被准确预测的概率和置信度。可以看出,在复杂模型H1的预测中,一些数据具有较高的置信度,但总体精度不如模型H2。你说什么来着?模型的复杂程度也要平衡~

4. 特征结合

(1)为什么投影的特征看起来是相关的,而离散的个体看起来是无关的?

(2)为什么线性模型会失败?

5. 无关特征

下图中用y轴作为区分样本的特征,但是是不是看起来右边的图比较混乱?混淆是由于x轴的干扰。

6. 升维

非线性问题可以在维数提高后转化为线性问题。如下图所示,假设样本是由一维曲线生成的,这一定是一个非线性问题。但是,如果把曲线看成二维的,可以马上用一个线性的基本函数来除。这就是SVM(支持向量机)的理论。

7. 判别模型和生成模型

左图仅使用先验判别模型,右图使用后验生成模型。绿色垂直线代表最自信的分割线。

8. 损失函数

许多机器学习算法都可以看作是优化损失函数的过程。

蓝线:SVM铰链误差函数

绿线:均方误差

黑线:误分类率

红色:对数函数回归误差

9. 最小方差的几何图解

Y轴在平面上的投影表示最小方差估计

10. 稀疏性

Lasso (L1范数正则化)为什么容易给出稀疏解?(即权重向量有更多的零值)。

图中红色轮廓线是误差平方项轮廓线,可以理解为轮廓线上的解误差相等。左边的蓝色正方形线是L1范数等值线,右边的蓝色圆圈线是L2范数等值线。由此可见,L1范数更容易得到轴上权值为0的解。即得到的解更容易稀疏。

河海大学常州校区