文章目录概述首先通过一张表格对几种误差的名称有一个了解
1. SSESSE(残差平方和、和方差):The sum of squares due to error SSE越接近于0,说明模型选择和拟合更好,数据预测也越成功。接下来的MSE和RMSE因为和SSE是同出一宗,所以效果一样 2. MSEMSE(均方差、方差):Mean squared error 3. RMSERMSE(均方根、标准差):Root mean squared error X r m s = ∑ i = 1 N X i N N = X 1 2 + X 2 2 + . . . + X N 2 N X_{rms} = \sqrt{ \frac{\sum_{i=1}^{N} X_{i}^{N}} {N}} = \sqrt{\frac{X_{1}^{2} +X_{2}^{2}+ ...+X_{N}^{2}} {N}} Xrms=N∑i=1NXiN =NX12+X22+...+XN2 4. MAEMAE(平均绝对误差):mean absolute error 5. R-squaredR-squared(确定系数):Coefficient of determination 在讲确定系数之前,我们需要介绍另外两个参数SSR和SST,因为确定系数就是由它们两个决定的 (2)SST(总偏差平方和,样本方差):Total sum of squares,偏差=实际值一标准值,通常用平均值代替标准值;在这里表示原始数据和均值之差的平方和,公式如下 通过观察可以发现,SST=SSE+SSR。而我们的“确定系数”是定义为SSR和SST的比值,故 下边通过分析公式 1-SSE/SST 来理解R-squared的具体含义
6. Adjusted R-squaredAdjusted R-squared(调整R方) Degree of freedom adjusted coefficient of determination R
2
(
a
d
j
)
=
1
−
(
R
S
S
/
(
n
−
p
−
1
)
)
/
(
T
S
S
/
(
n
−
1
)
)
\\ R^2 (adj) = 1- (RSS/(n-p-1))/(TSS/(n-1))
R2(adj)=1−(RSS/(n−p−1))/(TSS/(n−1)) R-squared(值范围0-1)描述的 输入变量对输出变量的解释程度。在单变量线性回归中R-squared 越大,说明拟合程度越好。 7 对比 MAE、MSE、RMSE、R-square、Adjusted R-squaredMSE、RMSE本质上都是计算偏差的L2范数,两者都会方法较大的误差,因此可能会使模型牺牲正常样本的偏差,从而去拟合异常值;但RMSE保持了和样本同量纲,MSE计算简便。 在回归模型中,损失函数一般使用 MAE、MSE、RMSE,而性能评估指标常用R-square;对于一个回归模型,如果对于每一个观测数据都用观测数据均值多为预测值,似乎也能达到很高的准确率,为了避免这种模型作弊问题,R-square用模型预测偏差的方差与拿观测值均值预测的方差的比值作为评价标准,当R-square=1是表示模型所有的预测值都和观测值相同,R-square=1表示模型预测性能和拿均值预测的性能相同,R-square<0表示模型预测的性能还不如拿均值预测的性能强,总结来说R-square就是在用均值预测的标准下衡量模型的预测性能 Adjusted R-squared 和 R-squared类似,只是在 R-squared 的同时对参数增加了一个L0损失,在最大化R-squared的同时最小化参数个数 想进一步了解深度学习中优化器的深度解析请移步->#深度解析# 深度学习中的SGD、BGD、MBGD、Momentum、NAG、Adagrad、Adadelta,RMSprop、Adam优化器 |
|
来自: 昵称70907282 > 《R语言》