共 60 篇文章
显示摘要每页显示  条
一种SVM-DS决策融合方法及在高铁故障中的应用。通过Platt的概率模型分别将RBF核函数SVM分类器(SVM-RBF)、线性核函数SVM分类器(SVM-Linear)和多项式核函数SVM分类器(SVM-Quadratic)的硬输出转化为相应的后验概率;SVM-DS决策融合模型如图1所示。SVM-DS方法的标准差为0.005 5,稳定性远高于SVM-Quadratic和SVM-RBF分类器,比单一分类器中表现最好...
科普|贝叶斯概率模型一览。概率模型(生成模型)通过函数 F 来描述 X 和 Y 的联合概率或者条件概率分布,如 P(X|Y);而在概率模型中,所有模型的优化目标是统一的,即最大化观测数据在概率模型中出现的概率。贝叶斯概率模型的诞生。所有概率模型描述的都是在系统参数 w 下观测变量对 X,Y 的联合概率分布或条件概率分布,即 P(Y,X|w) 。接下里通...
机器学习时代的哈希算法,将如何更高效地索引数据。本文首先将介绍什么是索引以及哈希算法,并描述在机器学习与深度学习时代中,如何将索引视为模型学习比哈希算法更高效的表征。在接下来的部分中,我们将只描述哈希表中使用的哈希函数,而不对加密哈希函数、校验和或任何其他类型的哈希函数展开讨论。基于哈希索引的性能考量。当哈希冲突发生...
入门|从原理到应用:简述Logistic回归算法。癌症检测算法可看做是 Logistic 回归问题的一个简单例子,这种算法输入病理图片并且应该辨别患者是患有癌症(1)或没有癌症(0)。这就是 logistic 函数的任务,也称为 sigmoid 函数。像支持向量机分类器这样的算法在大型数据集上扩展性不好,所以在这种情况下使用 Logistic 回归这样的二分类算法的...
浅谈机器学习时代的哈希算法(二)机器学习的核心是创建算法,该算法可以从原始数据自动构建精确的模型,而无需人类帮助机器“理解”数据实际表示的内容。通过用机器学习模型替换标准哈希表实现中的哈希函数,研究人员发现它们可以显着减少浪费的空间量。这带来了一个折衷:ML模型比我们上面看到的标准哈希函数要慢一些,并且需要一个标准哈希...
计算图上的导数。如果我们以速率为1的速度变化输入a,那么根据偏导数可知,函数c的变化速率也是1,已知e相对于c的偏导数是2,那么同样的,e相对a的变化速率也是2。计算不直接相连节点之间偏导数的一般规则是计算各路径偏导数的和,而同一路径偏导数则是各边偏导数的乘积,例如,e关于b的偏导数就等于:如上图所示,X到Y有3条路径,Y到Z也有3条...
入门|贝叶斯线性回归方法的解释和优点。本文对比了频率线性回归和贝叶斯线性回归两种方法,并对后者进行了详细的介绍,分析了贝叶斯线性回归的优点和直观特征。我将跳过本文的代码部分(请参阅 PyMC3 中的代码实现),但是实现贝叶斯回归的基本流程是:指定模型参数的先验(在这个例子中我使用正态分布),创建将训练数据中的输入映射到输出的...
这也是一个决策树。那么这里,红色士力架(15)是正例,其他的巧克力(如红色 Kit Kat 和蓝色士力架)都是负例。你讲看到一个与上文决策树类似的决策树:Scikit-Learn 上的决策树页面,讨论在更大的数据集和其他度量下分割数据:http://scikit-learn.org/stable/modules/tree.html.Kaggle 上的机器学习教程,一个深度教程,教你参与 Kaggle 竞...
PCA 是一个统计学过程,它通过使用正交变换将一组可能存在相关性的变量的观测值转换为一组线性不相关的变量的值,转换后的变量就是所谓的主分量。在计算机视觉中,第一个人脸识别算法使用 PCA 和 SVD 来将面部表示为“特征面”的线性组合,进行降维,然后通过简单的方法将面部匹配到身份,虽然现代方法更复杂,但很多方面仍然依赖于类似的技术...
本文介绍了机器学习新手需要了解的 10 大算法,包括线性回归、Logistic 回归、朴素贝叶斯、K 近邻算法等。机器学习算法被描述为学习一个目标函数 f,该函数将输入变量 X 最好地映射到输出变量 Y:Y = f(X)KNN 算法在整个训练集中搜索 K 个最相似实例(近邻)并汇总这 K 个实例的输出变量,以预测新数据点。学习向量量化算法(简称 LVQ)是一种...
帮助 | 留言交流 | 联系我们 | 服务条款 | 下载网文摘手 | 下载手机客户端
北京六智信息技术股份有限公司 Copyright© 2005-2024 360doc.com , All Rights Reserved
京ICP证090625号 京ICP备05038915号 京网文[2016]6433-853号 京公网安备11010502030377号
返回
顶部