注册
登录
看啥推荐读物
专栏名称:
机器之心
专业的人工智能媒体和产业服务平台
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
知乎回答RSS订阅方法
知乎专栏 RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
新智元
·
OpenAI陷巨大算力荒,国内大厂抢先破局! ...
·
16 小时前
宝玉xp
·
扎克伯格认为 GPU ...
·
2 天前
爱可可-爱生活
·
通过归纳文本与情感的因果机制,指导构建对齐的 ...
·
4 天前
爱可可-爱生活
·
【The largest Awesome ...
·
4 天前
爱可可-爱生活
·
几篇论文实现代码:《Real ...
·
4 天前
今天看啥
›
专栏
›
机器之心
学界 | 全局最优解?为什么SGD能令神经网络的损失降到零
机器之心
·
公众号
·
AI
· 2018-10-07 12:14
选自 arXiv机器之心编译参与:思源昨日,reddit 上一篇帖子引发热议,该帖介绍了一篇关于梯度下降对过参数化神经网络影响的论文,该论文只用单个非常宽的隐藏层,并证明了在一定条件下神经网络能收敛到非凸优化的全局最优解。这是对深度学习的复古?到底是否有效?社区中很多人对此发表了看法。机器之心简要介绍了该论文,更详细的推导过程与方法请查看原论文,不过这样的证明读者们都 Hold 住吗。用一阶方法训练的神经网络已经对很多应用产生了显著影响,但其理论特性却依然成谜。一个经验观察是,即使优化目标函数是非凸和非平滑的,随机初始化的一阶方法(如随机梯度下降)仍然可以找到全局最小值(训练损失接近为零)。令人惊讶的是,这个特性 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
分享到微博
推荐文章
新智元
·
OpenAI陷巨大算力荒,国内大厂抢先破局!打破单芯片限制,算力效率提升33%
16 小时前
宝玉xp
·
扎克伯格认为 GPU 紧缺不是问题,能源才是大问题。还没有人建设-20240422150502
2 天前
爱可可-爱生活
·
通过归纳文本与情感的因果机制,指导构建对齐的因果提示以改进语言模-20240421060550
4 天前
爱可可-爱生活
·
【The largest Awesome List of CLI-20240420165749
4 天前
爱可可-爱生活
·
几篇论文实现代码:《Real Acoustic Fields: -20240420175857
4 天前
高分子能源
·
2023年国内高校教职,求职过程和结果如何?
1 年前
管理智慧
·
不懂汇报,工作等于白做!
2 年前
聪明投资者
·
蔚来李斌: ET7的算力是特斯拉的7倍,已投几百亿做研发,今年再投50亿
2 年前
FOFWEEKLY
·
详解基金“三会”:从投决会、AC会、合伙人会议深度辨析GP和LP关系
5 年前
圣贤教育改变命运
·
你只管善良,上天自有安排
5 年前