ai人工智能培训讲师计算机视觉讲师叶梓:计算机视觉领域的自监督学习模型——MAE-8

2022-05-20 09:25:39
标签: ai讲师 计算机视觉 计算机视觉讲师 人工智能讲师 人工智能应用

接上一篇

P17-P18

BEiT

n让 BEIT 看很多的图片,随机遮住一些 patches,让 BEIT 模型预测遮住的patches是什么

n不断计算预测的 patches 与真实的 patches 之间的差异,利用它作为 loss 进行反向传播更新参数,来达到 Self-Supervised Learning 的效果。

编辑

视觉和语言用的masked autoencoder区别

n架构差异:CNN天然适合图像领域,而应用Transformer却显得不那么自然,不过这个问题已经被ViT解决了。

n信息密度差异:人类的语言信息密集、博大精深,而图像不一样,它就那么多信息。所以预测的时候,预测patch要比预测词语容易很多,只需要对周边的patch稍微有些信息就够了。所以我们可以放心大胆地mask

n自编码器的解码器(将潜在表征映射回输入)在文本和图像重建任务中起着不同的作用。在CV任务中,解码器重建的是像素,因此其输出的语义水平低于一般的识别任务。

未完,下一篇继续…… 


阅读(0) 收藏(0) 转载(0) 举报/Report
相关阅读

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有