加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

人工智能老师人工智能讲师计算机视觉讲师叶梓:计算机视觉领域的自监督学习模型——MAE-10

(2022-09-01 09:17:05)
标签:

ai讲师

计算机视觉

计算机视觉讲师

人工智能讲师

人工智能应用

分类: 大数据人工智能

接上一篇

P21-P23

MAE(掩蔽自编码器)

  1. MAE 是一种简单的自编码方法,可以在给定部分观察的情况下重建原始信号。
  2. 由编码器将观察到的信号映射到潜在表示,再由解码器从潜在表示重建原始信号。

https://img-blog.csdnimg.cn/607944edc52c4436ab8d69e7d7b60217.png人工智能老师人工智能讲师计算机视觉讲师叶梓:计算机视觉领域的自监督学习模型——MAE-10编辑

与经典的自动编码器不同,MAE采用非对称设计

允许编码器仅对部分观察信号(无掩码标记)进行操作

并采用轻量级解码器从潜在表示和掩码标记中重建完整信号。

 

MAE(掩蔽自编码器)

  1. 在预训练期间,大比例的随机的图像块子集(如 75%)被屏蔽掉。
  2. 编码器用于可见patch的小子集。在编码器之后引入掩码标记,并且完整的编码块和掩码标记集由一个小型解码器处理,该解码器以像素为单位重建原始图像。
  3. 预训练后,解码器被丢弃,编码器应用于未损坏的图像以生成识别任务的表示。

https://img-blog.csdnimg.cn/16eff0be8e054b389989726c3df6cb4c.png人工智能老师人工智能讲师计算机视觉讲师叶梓:计算机视觉领域的自监督学习模型——MAE-10编辑

 

 


未完,下一篇继续…… 

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有