共 30 篇文章 |
|
K-means and ksvd algorithms。举例:K-SVD最大的不同在字典更新这一步,K-SVD每次更新一个原子(即字典的一列)和其对应的稀疏系数,直到所有的原子更新完毕,重复迭代几次即可得到优化的字典和稀疏系数。function [A,x]= KSVD(y,codebook_size,errGoal) %============================== %input parameter % y - input signal % codebook_siz... 阅120 转0 评0 公众公开 16-10-03 11:38 |
判别式模型和产生式模型 (discriminative model and generative model)http://www.cnblogs.com/wentingtu/archive/2012/04/22/2464764.html2012最经典的莫过于。前些天跟萌哥讨论“判别式模型和产生式模型”的问题,参考了网上一些帖子,做了个表,对两个模型进行了简单的比较。由产生式模型可以得到判别式模型,但由判别式模型得不到产生式模... 阅117 转2 评0 公众公开 16-09-14 14:52 |
判别式模型与生成式模型。常见的生成式模型有 隐马尔可夫模型HMM、朴素贝叶斯模型、高斯混合模型GMM、LDA等。这个特征向量表示邮件包含单词"a"和单词"buy",但是不包含单词"aardvark,"aardwolf","zygmurgy"。特征向量x的维数等于字典的大小。假设字典中有5000个单词,那么特征向量x就为5000维的... 阅180 转1 评0 公众公开 16-09-14 14:51 |
判别式模型与生成式模型判别式模型与生成式模型的区别。产生式模型(Generative Model)与判别式模型(Discrimitive Model)是分类器常遇到的概念,它们的区别在于:对于输入x,类别标签y:产生式模型估计它们的联合概率分布P(x,y)判别式模型估计条件概率分布P(y|x)产生式模型可以根据贝叶斯公式得到判别式模型,但反过来不行。产生式模型常见的主... 阅438 转0 评0 公众公开 16-09-14 14:47 |
// 反转字符串 for(;iEnd >iStart; ++iStart,--iEnd) { char ch; ch = strSouce[iStart]; strSouce[iStart] = strSouce[iEnd]; strSouce[iEnd] = ch; } // 返回字符串指针 return strSouce;} 阅71 转1 评0 公众公开 16-07-08 12:21 |
决策树故名思意是用于基于条件来做决策的,而它运行的逻辑相比一些复杂的算法更容易理解,只需按条件遍历树就可以了,需要花点心思的是理解如何建立决策树。构造决策树的关键步骤是分裂属性。循序本系列的从工程角度理解算法,而非数学角度理解算法的原则,因此这里只给出信息增益度量的计算方式,如果需要深入了解其数学原理,请查阅专业资料... 阅54 转0 评0 公众公开 16-07-04 08:27 |
近似最近邻问题相关算法总结。kd tree 适用于维度比较低的情况,因为在维度高的情况下,kdtree的深度将会非常深,这样的tree的效率太低, 存储空间也大。见lowe 的 FLANN算法,http://www.cs.ubc.ca/research/flann/, 思想大概是用forest的思想来提升kdtree的recall.方法比较巧妙,后续有不少论文,主要思想是在子空间中进行k-means,这样划分... 阅523 转2 评0 公众公开 16-05-06 05:56 |
前者是一种自底向上的层次聚类算法,从最底层开始,每一次通过合并最相似的聚类来形成上一层次中的聚类,整个当全部数据点都合并到一个聚类的时候停止或者达到某个终止条件而结束,大部分层次聚类都是采用这种方法处理。后者是采用自顶向下的方法,从一个包含全部数据点的聚类开始,然后把根节点分裂为一些子聚类,每个子聚类再递归地继续往下... 阅2531 转6 评0 公众公开 16-04-06 05:19 |
我们可以建立模型对于新数据的预测误差(我们应该真正关心的指标,也叫实际误差)和模型对于训练数据的预测误差(被很多模型设计者误用的指标)之间的关系。如果模型的效果并不比零模型号多少,则R2" role="presentation" style="position: relative;">[Math Processing Error]R2接近0,而如果我们的模型效果远好... 阅130 转0 评0 公众公开 16-04-05 06:06 |