id is hang_2

冉杰文

个人站

一直在模仿....


Coursera机器学习

目录

Week 5: Neural Networks: Learning

  • 本来上周开始该学习这个内容,也是先提交了作业,今天才来看看具体的代码;感觉这个课程本身对基础巩固很好。没有连续学习感觉有些有点忘了,最终的目的是自己能够推导这个内容。
  • 本来想跟着学习搞个电子证书的,结果申请的到期时间是2017.3.31;然后给课题组的发了邮件,结果说课只能买了,很伤心,但是还是坚持学习;看后面能不能再次申请。

之前的学习

  • 第一次在博客园编辑的Coursera机器学习还没有学习用Markdown,排版很乱,这个重新弄一下

上周出差回来,开始找了一篇论文看《ScSPM》,这里有源代码,自己希望能认真看懂;毕竟这篇文章包含了dense sift特征提取+Spare coding+linear svm知识很全面,希望能看懂代码。这个过程却发现自己缺少了很多东西,他自己的sift提取方法,Sc,svm都是自己实现的;感觉看懂好难。然后周六开始实验室有“学术交流”,师兄师姐交流他们整个小论文的过程,针对梯度下降这些基本的方法,我们都没有认真的理解。发现图像和机器学习自己都没有认真的系统的学习;自己在博客上零零散散的看了很多方法;但是没有成系统。然后想跟着coursera机器学习 认真的学一下;却发现视频放不了的。但是作业还是可以提交的,想认真弄弄最后搞个证书。我在github上找了很多课程matlab的代码;今天完整了把第一次编程作业看了,其实对损失函数,参数学习,梯度下降在代码中认识了一下;感觉很不错。后续把后面的作业认真的看看。

学习资料

学习目录

整理学习目录,能够更系统的了解知识结构。

目录

Week1 机器学习介绍

1机器学习介绍

1.1什么是机器学习?

1.2监督学习(Supervised Learning)

1.3非监督学习(Unsupervised Learning)

Week1 单变量线性回归

2单变量线性回归(Linear Regression with One Variable)

2.1模型表达(Model Representation)

2.2代价函数(Cost Function)

2.3梯度下降(Gradient Descent)

2.4对线性回归运用梯度下降法

Week2 多变量线性回归

3多变量线性回归(Linear Regression with Multiple Variables)

3.1 多维特征(Multiple Features)

3.2多变量梯度下降(Gradient descent for multiple variables)

3.3特征缩放(feature scaling)

3.4学习率(Learning rate)

Week2 多项式回归和正规方程

4多项式回归和正规方程

4.1多项式回归(Polynomial Regression)

4.2正规方程(Normal Equation)

Week3 归一化

5 逻辑回归(Logistic Regression)

5.1分类问题

5.2分类问题建模.

5.3判定边界(Decision Boundary)

5.4代价函数

5.5多类分类(Multiclass Classification)

Week3 归一化

6归一化(Regularization)

6.1过拟合问题(The Problem of Overfitting)

6.2归一化代价函数(Regularization Cost Function)

6.3归一化线性回归(Regularized Linear Regression)

6.4归一化逻辑回归(Regularized Logistic Regression)

Week4 神经网络:表达

7神经网络:表达

7.1非线性假设(Non-Linear Hypothesis)

7.2神经网络介绍

7.3模型表达

7.4神经网络模型表达.

7.5正向传播 (Forward Propagation)

7.6对神经网络的理解

7.7神经网络示例:二元逻辑运算符(Binary Logical Operators)

7.8多类分类

Week5 神经网络:学习

8神经网络:学习

8.1神经网络代价函数.

8.2反向传播算法(Backpropagation Algorithm)

8.3梯度检验(Gradient Checking)

8.4随机初始化(Random Initialization)

8.5综合起来

Week6 机器学习应用建议

9机器学习应用建议

9.1决定下一步做什么

9.2假设的评估(Evaluating a Hypothesis)

9.3模型选择(交叉验证集)

9.4偏倚和偏差诊断(Diagnosis Bias vs. Variance)

9.5归一化与偏倚/偏差

9.6学习曲线(Learning Curves)

9.7决定下一步做什么

Week6 机器学习系统设计

10机器学习系统设计

10.1首先要做什么

10.2误差分析(Error Analysis)

10.3类偏斜的误差度量(Error Metrics for Skewed Classes)

10.4查全率和查准率之间的权衡

10.5机器学习的数据

Week7 支持向量机

11 支持向量机(Support Vector Machine)

11.1优化目标(Optimization Objective)

11.2支持向量机判定边界(SVM Decision Boundary)

11.3核函数(Kernels)

11.4逻辑回归与支持向量机

Week8 聚类

12 聚类(Clustering)

12.1K-均值算法
12.2优化目标

12.3随机初始化

12.4选择聚类数

Week8 降维

13 降维(Dimensionality Reduction)

13.1 动机一:数据压缩(Data Compression)

13.2 动机二:数据可视化(Data Visualization)

13.3主要成分分析(Principal Component Analysis)

13.4主要成分分析算法

13.5选择主要成分的数量

13.6应用主要成分分析

Week9 异常检测

14异常检测(Anomaly Detection)

14.1密度估计(Density Estimation)

14.2高斯分布

14.3异常检测

14.4评价一个异常检测系统

14.5异常检测与监督学习对比

14.6选择特征

14.7多元高斯分布(Multivariate Gaussian Distribution)

Week9 推荐系统

15推荐系统(Recommender Systems)

15.1问题形式化

15.2基于内容的推荐系统(Content-based Recommendations)

15.3协同过滤算法(Collaborative Filtering Algorithm)

15.4均值归一化

#####Week10 大规模机器学习

16大规模机器学习(Large Scale Machine Learning)

16.1大型数据集的学习

16.2随机梯度下降法(Stochastic Gradient Descent)

16.3微型批量梯度下降(Mini-Batch Gradient Descent)

16.4随机梯度下降收敛(Stochastic Descent Convergence)

16.5在线学习(Online Learning)

16.6映射化简和数据并行(Map Reduce and Data Parallelism)

Week10 应用示例:图像文字识别

17应用实例:图像文字识别(Photo OCR)

17.1问题描述和流程图(Problem description and pipeline)

17.3获得大量数据个人工数据

17.4上限分析( Ceiling Analysis)

Refenece:

COURSERA机器学习课笔记

声明:本博客由 ranjiewen原创,如需使用请引用或者添加转载字样,谢谢配合。同时也仅代表个人观点。

 打赏

打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,你说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

Powered by 冉杰文,分享从这里开始,精彩与您同在