基本概念
2014-10-14版, 好东西传送门编辑整理, 原文链接 感谢贡献者: tang_Kaka_back@新浪微博
欢迎补充指正,转载请保留原作者和原文链接。 本文是 基本概念
机器学习 下面从微观到宏观试着梳理一下机器学习的范畴:一个具体的算法,领域进一步细分,实战应用场景,与其他领域的关系。 图1:
机器学习的例子:NLTK监督学习的工作流程图 (source: 图2:
机器学习概要图 by Yaser Abu-Mostafa (Caltech)
(source: 图3:
机器学习实战:在python scikit learn 中选择机器学习算法 by Nishant Chandra
(source: 图4:
机器学习和其他学科的关系: 数据科学的地铁图 by Swami Chandrasekaran
(source: 入门攻略大致分三类: 起步体悟,实战笔记,行家导读
更多攻略
课程资源Tom Mitchell 和 Andrew Ng 的课都很适合入门 入门课程2011 Tom Mitchell(CMU)机器学习
英文原版视频与课件PDF
2014 Andrew Ng (Stanford)机器学习
英文原版视频
进阶课程
2013年Yaser Abu-Mostafa (Caltech) Learning from
Data
2014年 林軒田(国立台湾大学) 機器學習基石 (Machine Learning
Foundations) When Can Machines Learn? [何時可以使用機器學習] The Learning Problem [機器學習問題] -- Learning to Answer Yes/No [二元分類] -- Types of Learning [各式機器學習問題] -- Feasibility of Learning [機器學習的可行性] Why Can Machines Learn? [為什麼機器可以學習] -- Training versus Testing [訓練與測試] -- Theory of Generalization [舉一反三的一般化理論] -- The VC Dimension [VC 維度] -- Noise and Error [雜訊一錯誤] How Can Machines Learn? [機器可以怎麼樣學習] -- Linear Regression [線性迴歸] -- Linear `Soft' Classification [軟性的線性分類] -- Linear Classification beyond Yes/No [二元分類以外的分類問題] -- Nonlinear Transformation [非線性轉換] How Can Machines Learn Better? [機器可以怎麼樣學得更好] -- Hazard of Overfitting [過度訓練的危險] -- Preventing Overfitting I: Regularization [避免過度訓練一:控制調適] -- Preventing Overfitting II: Validation [避免過度訓練二:自我檢測] -- Three Learning Principles [三個機器學習的重要原則] 更多选择
2008年Andrew Ng CS229 机器学习 第1集.机器学习的动机与应用 第2集.监督学习应用.梯度下降 第3集.欠拟合与过拟合的概念 第4集.牛顿方法 第5集.生成学习算法 第6集.朴素贝叶斯算法 第7集.最优间隔分类器问题 第8集.顺序最小优化算法 第9集.经验风险最小化 第10集.特征选择 第11集.贝叶斯统计正则化 第12集.K-means算法 第13集.高斯混合模型 第14集.主成分分析法 第15集.奇异值分解 第16集.马尔可夫决策过程 第17集.离散与维数灾难 第18集.线性二次型调节控制 第19集.微分动态规划 第20集.策略搜索
2012年余凯(百度)张潼(Rutgers) 机器学习公开课 第1节Introduction to ML and review of linear algebra, probability, statistics (kai) 第2节linear model (tong) 第3节overfitting and regularization(tong) 第4节linear classification (kai) 第5节basis expansion and kernelmethods (kai) 第6节model selection and evaluation(kai) 第7节model combination (tong) 第8节boosting and bagging (tong) 第9节overview of learning theory(tong) 第10节optimization in machinelearning (tong) 第11节online learning (tong) 第12节sparsity models (tong) 第13节introduction to graphicalmodels (kai) 第14节structured learning (kai) 第15节feature learning and deeplearning (kai) 第16节transfer learning and semi supervised learning (kai) 第17节matrix factorization and recommendations (kai) 第18节learning on images (kai) 第19节learning on the web (tong) 论坛网站中文
http://www./
http://www./bbsdoc/DataSciences.html
http://www./group/262/
http:///cn/forum/22
http://bbs./#!board/ML_DM 英文
https://github.com/josephmisiti/awesome-machine-learning
http://work./library/
http://www./
http://www./ 东拉西扯一些好东西,入门前未必看得懂,要等学有小成时再看才能体会。
Dan Levin, What is the difference between statistics, machine learning, AI and data mining?
几篇高屋建瓴的机器学习领域概论, 参见原文
几本好书
|
|