加载中…
个人资料
渔婆的愚公
渔婆的愚公
  • 博客等级:
  • 博客积分:0
  • 博客访问:99,875
  • 关注人气:14
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
相关博文
推荐博文
谁看过这篇博文
加载中…
正文 字体大小:

Gradient Descent的两种方式

(2013-05-29 11:46:19)
标签:

gradientdescent

大数据

分类: MachineLearning
本节内容来自于Andrew Ng讲解的C229 lesson 2 斯坦福大学的网易视频课(监督学习应用)

对N个样本集合
文中最loss function J(thelta)一个最优化的方法是梯度下降方法,一般的策略是:
Batch Gradient Descent:Gradient <wbr>Descent的两种方式

但是,对N是很大的情况,收敛的速度相当的慢;所以又有一种新的策略,就是:
Stochastic Gradient Descent:
for j=1 to N
{
Gradient <wbr>Descent的两种方式 for all i
}
这个可以很好解决大数据样本,但是收敛的结果可能不是特别准确,但由于我们本身就是求的近似值,并且也不是全局最优解,所以这个的结果在节省时间上也是可以接收的

Gradient <wbr>Descent的两种方式

0

阅读 评论 收藏 转载 喜欢 打印举报/Report
  • 评论加载中,请稍候...
发评论

    发评论

    以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

      

    新浪BLOG意见反馈留言板 电话:4000520066 提示音后按1键(按当地市话标准计费) 欢迎批评指正

    新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 会员注册 | 产品答疑

    新浪公司 版权所有