注册
登录
看啥推荐读物
专栏名称:
AI科技大本营
迎来到AI科技大本营。这里汇集了优秀的AI学习者,技术大咖和产业领袖;提供接地气的实战课程。在这里和优秀的人一起成长。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
知乎回答RSS订阅方法
知乎专栏 RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
爱可可-爱生活
·
《爱可可微博热门分享(4.23)》 ...
·
3 天前
爱可可-爱生活
·
几篇论文实现代码:《Elucidating ...
·
5 天前
宝玉xp
·
转:《最新开源模型选择推荐》by ...
·
5 天前
爱可可-爱生活
·
【Qwen1.5 ...
·
5 天前
宝玉xp
·
//@每小痛:最像打雷的一首,开始听的时候还 ...
·
5 天前
今天看啥
›
专栏
›
AI科技大本营
微软亚研院提出用于语义分割的结构化知识蒸馏 | CVPR 2019
AI科技大本营
·
公众号
·
AI
· 2019-03-16 08:50
作者 | CV君来源 | 我爱计算机视觉今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文《Structured Knowledge Distillation for Semantic Segmentation》,通讯作者单位为微软亚洲研究院。作者信息:作者分别来自澳大利亚阿德莱德大学、微软亚洲研究院、北航、Keep公司、三星中国研究院,该文为第一作者Yifan Liu在微软亚洲研究院实习期间的工作。该文研究了在语义分割模型的知识蒸馏中引入结构化信息的损失函数,在不改变模型计算量的情况下,使用该方法在Cityscapes数据集上mIoU精度取得了最高达15.17%的提升。什么是知识蒸馏?顾名思义,知识蒸馏是把知识浓缩到“小”网络模型中。一般情况下,在相同的数据上训练,模型参数量较大、计算量大的模型往往 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
分享到微博
推荐文章
爱可可-爱生活
·
《爱可可微博热门分享(4.23)》 爱可可微博热门分享(4.2-20240423220804
3 天前
爱可可-爱生活
·
几篇论文实现代码:《Elucidating the Exposu-20240421214228
5 天前
宝玉xp
·
转:《最新开源模型选择推荐》by 九原客最新开源模型选择个人推荐-20240421143616
5 天前
爱可可-爱生活
·
【Qwen1.5 110B模型聊天Demo】《Qwen1.5 1-20240421072932
5 天前
宝玉xp
·
//@每小痛:最像打雷的一首,开始听的时候还以为点错了...-20240421060028
5 天前
备胎说车
·
开车为什么要戴偏光镜,视频实测给你看
2 年前
CSDN
·
Rust 2020 调查报告出炉,95%的开发者吐槽Rust难学
3 年前
中国药闻
·
十省市医疗器械上市后监管工作座谈会在郑州召开
3 年前
高能E蓓子
·
她会因为自己的嘴巴凉凉吗?
4 年前
雪球
·
#雪球热议# 苹果产业链今日全线大涨,这是为何?此前有消息称,苹-20190724154307
4 年前