目录
Week 5: Neural Networks: Learning
- 本来上周开始该学习这个内容,也是先提交了作业,今天才来看看具体的代码;感觉这个课程本身对基础巩固很好。没有连续学习感觉有些有点忘了,最终的目的是自己能够推导这个内容。
- 本来想跟着学习搞个电子证书的,结果申请的到期时间是2017.3.31;然后给课题组的发了邮件,结果说课只能买了,很伤心,但是还是坚持学习;看后面能不能再次申请。
之前的学习
- 第一次在博客园编辑的Coursera机器学习还没有学习用Markdown,排版很乱,这个重新弄一下
上周出差回来,开始找了一篇论文看《ScSPM》,这里有源代码,自己希望能认真看懂;毕竟这篇文章包含了dense sift特征提取+Spare coding+linear svm知识很全面,希望能看懂代码。这个过程却发现自己缺少了很多东西,他自己的sift提取方法,Sc,svm都是自己实现的;感觉看懂好难。然后周六开始实验室有“学术交流”,师兄师姐交流他们整个小论文的过程,针对梯度下降这些基本的方法,我们都没有认真的理解。发现图像和机器学习自己都没有认真的系统的学习;自己在博客上零零散散的看了很多方法;但是没有成系统。然后想跟着coursera机器学习 认真的学一下;却发现视频放不了的。但是作业还是可以提交的,想认真弄弄最后搞个证书。我在github上找了很多课程matlab的代码;今天完整了把第一次编程作业看了,其实对损失函数,参数学习,梯度下降在代码中认识了一下;感觉很不错。后续把后面的作业认真的看看。
学习资料
- 其实视频自己时间有限也没有看,都直接看文字的;有时候看看别人的学习经验,更有助于自己理解。
- open class Machine Learning Andrew Ng 这里面的视频可以看
- 斯坦福大学公开课 :机器学习课程 网易公开课有点旧
- dfcao 机器学习 八篇文章学习笔记
- Michael Wang的机器学习乐园 也是该课程的学习笔记
学习目录
整理学习目录,能够更系统的了解知识结构。
目录
Week1 机器学习介绍
1机器学习介绍
1.1什么是机器学习?
1.2监督学习(Supervised Learning)
1.3非监督学习(Unsupervised Learning)
Week1 单变量线性回归
2单变量线性回归(Linear Regression with One Variable)
2.1模型表达(Model Representation)
2.2代价函数(Cost Function)
2.3梯度下降(Gradient Descent)
2.4对线性回归运用梯度下降法
Week2 多变量线性回归
3多变量线性回归(Linear Regression with Multiple Variables)
3.1 多维特征(Multiple Features)
3.2多变量梯度下降(Gradient descent for multiple variables)
3.3特征缩放(feature scaling)
3.4学习率(Learning rate)
Week2 多项式回归和正规方程
4多项式回归和正规方程
4.1多项式回归(Polynomial Regression)
4.2正规方程(Normal Equation)
Week3 归一化
5 逻辑回归(Logistic Regression)
5.1分类问题
5.2分类问题建模.
5.3判定边界(Decision Boundary)
5.4代价函数
5.5多类分类(Multiclass Classification)
Week3 归一化
6归一化(Regularization)
6.1过拟合问题(The Problem of Overfitting)
6.2归一化代价函数(Regularization Cost Function)
6.3归一化线性回归(Regularized Linear Regression)
6.4归一化逻辑回归(Regularized Logistic Regression)
Week4 神经网络:表达
7神经网络:表达
7.1非线性假设(Non-Linear Hypothesis)
7.2神经网络介绍
7.3模型表达
7.4神经网络模型表达.
7.5正向传播 (Forward Propagation)
7.6对神经网络的理解
7.7神经网络示例:二元逻辑运算符(Binary Logical Operators)
7.8多类分类
Week5 神经网络:学习
8神经网络:学习
8.1神经网络代价函数.
8.2反向传播算法(Backpropagation Algorithm)
8.3梯度检验(Gradient Checking)
8.4随机初始化(Random Initialization)
8.5综合起来
Week6 机器学习应用建议
9机器学习应用建议
9.1决定下一步做什么
9.2假设的评估(Evaluating a Hypothesis)
9.3模型选择(交叉验证集)
9.4偏倚和偏差诊断(Diagnosis Bias vs. Variance)
9.5归一化与偏倚/偏差
9.6学习曲线(Learning Curves)
9.7决定下一步做什么
Week6 机器学习系统设计
10机器学习系统设计
10.1首先要做什么
10.2误差分析(Error Analysis)
10.3类偏斜的误差度量(Error Metrics for Skewed Classes)
10.4查全率和查准率之间的权衡
10.5机器学习的数据
Week7 支持向量机
11 支持向量机(Support Vector Machine)
11.1优化目标(Optimization Objective)
11.2支持向量机判定边界(SVM Decision Boundary)
11.3核函数(Kernels)
11.4逻辑回归与支持向量机
Week8 聚类
12 聚类(Clustering)
12.1K-均值算法
12.2优化目标
12.3随机初始化
12.4选择聚类数
Week8 降维
13 降维(Dimensionality Reduction)
13.1 动机一:数据压缩(Data Compression)
13.2 动机二:数据可视化(Data Visualization)
13.3主要成分分析(Principal Component Analysis)
13.4主要成分分析算法
13.5选择主要成分的数量
13.6应用主要成分分析
Week9 异常检测
14异常检测(Anomaly Detection)
14.1密度估计(Density Estimation)
14.2高斯分布
14.3异常检测
14.4评价一个异常检测系统
14.5异常检测与监督学习对比
14.6选择特征
14.7多元高斯分布(Multivariate Gaussian Distribution)
Week9 推荐系统
15推荐系统(Recommender Systems)
15.1问题形式化
15.2基于内容的推荐系统(Content-based Recommendations)
15.3协同过滤算法(Collaborative Filtering Algorithm)
15.4均值归一化
#####Week10 大规模机器学习
16大规模机器学习(Large Scale Machine Learning)
16.1大型数据集的学习
16.2随机梯度下降法(Stochastic Gradient Descent)
16.3微型批量梯度下降(Mini-Batch Gradient Descent)
16.4随机梯度下降收敛(Stochastic Descent Convergence)
16.5在线学习(Online Learning)
16.6映射化简和数据并行(Map Reduce and Data Parallelism)
Week10 应用示例:图像文字识别
17应用实例:图像文字识别(Photo OCR)
17.1问题描述和流程图(Problem description and pipeline)
17.3获得大量数据个人工数据
17.4上限分析( Ceiling Analysis)