共 74 篇文章 |
|
浅谈机器学习框架和算法概述。训练模型 定义模型:要想通过学习训练得到训练模型,必须要先定义一个模型,明确要得到一个什么样的模型,才能通过大量的数据训练得到期望的较为准确的模型。属于此类的有分类算法,回归算法等半监督学习:又名强化学习,有Y值,但是不是最终的分类结果,需要在算法过程中逐渐完善类别,明确类别。所有算法非1即2... 阅105 转0 评0 公众公开 22-09-20 17:19 |
算法、模式和框架之浅见。算法、模式和框架有关系吗?设想,当这个世界人类还在很远很远的个体时代,个人在认知、学习、创造发明、持续改进的能力直接决定了他们的生存状态,总有那么些人区别而领先与其他人,首先掌握了好的方法或是先进的工具,他们代表的人类进步的方向----此时如算法,强调的是代码本身实现效率;虽然我对框架的定义没有研... 阅27 转0 评0 公众公开 22-09-20 16:43 |
算法和算法框架,谁会代表未来?算法和算法框架是机器学习非常重要的两个因素,算法就是诸如LR、GBDT、DNN、DeepFM这样的实际解决某个数学问题的公式实现。算法框架指的是计算框架,计算框架可以让算法执行更高效,比如最早玩深度学习的人都用过Theano,基于Theano去开发算法很困难,后来有了PyTorch和TensorFlow,让基于深度学习的算法开发更... 阅30 转0 评0 公众公开 22-09-20 16:35 |
第二章平面上的直角坐标曲线及其方程。7.平面上曲线方程的概念。3.曲线的极坐标方程。2.曲线的参数方程。第八章曲面方程与曲线方程。3.母线平行于坐标的柱面方程二次柱面。5.空间曲线的参数方程。1.过一点并已知一法线矢量的平面方程。4.求导数的例题导数的基本公式表。5.函数的和积商的导数。9.参数方程所确定的函数的导数。T-函数。7.函数项... 阅294 转2 评0 公众公开 21-06-16 10:45 |
按照标签体系分级分层的方式,可以分为一级标签、二级标签、三级标签等,每一个层级的标签相当于一个业务维度的切面;对标签的管理与维护通常按照标签的生命周期来开展的,涉及标签开发与发布、标签应用、标签价值评估和标签优化及下线四个阶段。为做好标签管理与维护,有必要设立专门的标签管理团队,建立标签分类、命名、描述、和实施等方面... 阅197 转0 评0 公众公开 21-01-14 15:28 |
2、风险函数:损失函数的期望,评估模型平均预测好坏。eg:当模型是条件概率,损失函数是对数损失函数时,经验风险最小化等价于极大似然估计。eg:当模型是条件概率,损失函数是对数损失函数,模型复杂度由先验概率表示时,经验风险最小化等价于最大后验概率估计。就是利用已知的样本结果信息,反推最具可能(最大概率)导致样本结果产生的模型... 阅47 转0 评0 公众公开 20-11-25 10:05 |
经验风险、期望风险、结构风险序。常见的损失函数:确定了损失函数后,那么自然地损失函数越小越好,由于模型的输入X,输出Y 是随机变量,遵循联合分布P(X, Y),所以损失函数的期望为:(连续变量求积分,离散变量求和)为什么要引入损失函数的期望呢?李航老师书中的两个疑惑“当模型是条件概率分布、损失函数是对数损失函数、模型复杂度由模... 阅427 转0 评0 公众公开 20-11-25 10:03 |
分类,聚类及其回归的区别。clustering (聚类),2,如果给定一组样本特征 , 我们没有对应的属性值 , 而是想发掘这组样本在 二维空间的分布, 比如分析哪些样本靠的更近,哪些样本之间离得很远, 这就是属于聚类问题。聚类(clustering)clustering:聚类。聚类也是分析样本的属性, 有点类似classification, 不同的就是classification 在预测之前是... 阅2226 转6 评0 公众公开 20-05-30 12:36 |
数据挖掘其实很像是医生在诊断病人,当病人到达医院之后,医生先要收集病人的病症,将各项病症进行分析并产生关联,然后才能进行诊断。所有的数据都不一样,例如做通讯的数据,从移动、联通、电信来的数据都不一样,因为大家的客户群不同,背后的数据特点不同。大象就对应海量数据,每一个数据分析师就是这个瞎子,我们只能够摸一部分大象的部... 阅108 转1 评0 公众公开 17-02-09 20:29 |
数据挖掘其实很像是医生在诊断病人,当病人到达医院之后,医生先要收集病人的病症,将各项病症进行分析并产生关联,然后才能进行诊断。所有的数据都不一样,例如做通讯的数据,从移动、联通、电信来的数据都不一样,因为大家的客户群不同,背后的数据特点不同。大象就对应海量数据,每一个数据分析师就是这个瞎子,我们只能够摸一部分大象的部... 阅63 转0 评0 公众公开 17-01-11 08:06 |