基于原型学习与深度特征融合的脑功能连接分类方法研究

引用本文
梁玉泽, 冀俊忠. 基于原型学习与深度特征融合的脑功能连接分类方法研究. 自动化学报, 2022, 48(2): 504−514 doi: 10.16383/j.aas.c190747
Liang Yu-Ze, Ji Jun-Zhong. Brain functional connection classification method based on prototype learning and deep feature fusion. Acta Automatica Sinica, 2022, 48(2): 504−514 doi: 10.16383/j.aas.c190747
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c190747?viewType=HTML
文章简介
关键词
脑功能连接分类, 栈式自编码器, 原型学习, 特征融合
摘
近年来, 基于深度学习的脑功能连接分类方法已成为一个研究热点. 为了进一步提高脑功能连接的分类准确率, 获得与疾病相关的鉴别性特征, 本文提出了一种基于原型学习与深度特征融合的脑功能连接分类方法. 该方法首先使用栈式自编码器从脑功能连接中提取从低层次到高层次的深度特征; 然后利用原型学习在自编码器的各隐层中提取表示样本类别信息的距离特征; 最后采用深度特征融合策略将这些距离特征融合, 并将该融合特征用于脑功能连接的类别标签预测. 在ABIDE数据集上的实验结果表明, 与其他同类方法相比, 该方法不仅具有较高的分类准确率, 而且能够更加准确地定位与疾病相关的脑区.
引
人类大脑是一个高度复杂的系统, 通过脑区之间的互相协作来完成特定任务. 这种协作方式可以通过定量地分析静息态功能磁共振成像(Resting-state functional magnetic resonance imaging, rs-fMRI)数据来表达, 该表达称为功能连接. 已有研究表明, 精神障碍疾病与患者脑区之间功能连接的异常改变密切相关. 因此, 对脑功能连接分类的研究有助于揭示脑疾病的致病原因, 具有十分重要的现实意义.
目前脑功能连接分类方法主要分为两种: 基于传统机器学习的分类方法和基于深度学习的分类方法. 基于传统机器学习的分类方法使用浅层模型分析脑功能连接, 其中支持向量机(Support vector machine, SVM)和套索算法(Least absolute shrinkage and selection operator, LASSO)是两种最常用的算法. 虽然传统的机器学习方法已经表现出较好的分类效果, 但是受限于浅层结构, 特征表达能力不足, 分类准确率有待进一步提升. 与传统机器学习方法相比, 深度学习方法具有更强的特征提取能力, 能够系统地从脑功能连接中提取从低层次到高层次的特征. 其中, 栈式自编码器(Stacked autoencoders, SAE)结构简单, 能够逐层提取数据中深层次的特征, 是脑功能连接分类任务中最常用的深度学习方法之一. 此外, 有研究将卷积神经网络(Convolutional neural network, CNN)应用于脑功能连接分类任务, 针对脑功能连接的特点设计了多种网络结构, 取得了不错的效果. 不过, 基于深度学习的脑功能连接分类准确率仍存在进一步的提升空间.
近年来, 有研究发现, 在分类时综合利用深度模型提取的不同层次的特征, 相比于仅使用最高层次的特征能够提升分类效果. Sun等使用CNN来提取人脸特征, 将其用于人脸分类任务. 该方法将CNN中最后一个池化层与全连接层提取的特征拼接起来, 作为最终的特征表示, 在分类时充分考虑了不同层次特征中的信息, 与一些代表性的方法相比具有较高的分类准确率. 张婷等在传统CNN 的基础上引入了跨层连接思想, 将CNN中第二个池化层的特征跨越模型中间的隐层直接与全连接层连接起来, 最后使用该特征来预测样本类别. 该方法可以有效地将高层次特征和低层次特征结合起来, 在人脸性别分类任务中获得了比传统CNN更高的准确率. 李勇等针对LeNet-5在表情识别中识别率不高的问题提出了一种基于跨连接LeNet-5网络的面部表情识别方法, 该方法能够将神经网络提取的低层次特征和高层次特征融合, 提高了表情识别率. 最近, 又有研究表明, 将原型学习与深度学习结合能够提取到类内差异小, 类间差异大的鉴别性特征. Yang等将原型学习与CNN结合, 提出了卷积原型学习, 该模型能够显著缩小CNN提取到的特征的类内差异, 提高了CNN的鲁棒性. Wang等提出了一种基于原型学习的原型集成方法, 该方法不仅能够缩小深度特征的类内差异, 而且能够扩大类间差异, 从而提高了增量学习中新类别的检测的鲁棒性. Zhang等提出了模态缺失情况下的深度编码及分类模型(Cross partial multi-view networks, CPM-Nets), 该模型充分利用完备信息编码和原型分类思想, 提高了模态缺失情况下多模态数据的分类性能. 可见, 将原型学习与深度学习结合用于脑功能连接分类任务, 并且在分类阶段综合利用深度模型提取到的不同层次的特征, 将有望在获得与疾病相关的鉴别性特征的同时进一步提升分类准确率.
为了进一步提高脑功能连接的分类效果, 本文提出基于原型学习与深度特征融合的脑功能连接分类方法. 与CPM-Nets 不同的是,本文使用的数据为单一模态, 并不涉及模态缺失的情况; 此外本文所提方法还探索了深度模型中不同层次的特征对分类性能的影响. 具体来说, 首先, 利用SAE提取脑功能连接中不同层次的特征; 然后, 使用原型学习在SAE的每个隐层中提取表示样本类别信息的距离特征; 最后, 利用提出的深度特征融合策略将提取到的距离特征融合, 并将该融合特征用于类别标签预测. 在ABIDE数据集上的实验结果表明, 本文所提方法不仅提升了脑功能连接的分类准确率, 而且能够根据模型提取到的鉴别性特征更加准确地定位与精神障碍疾病相关的脑区.

图

图
作者简介
梁玉泽
北京工业大学信息学部硕士研究生. 主要研究方向为深度学习, 计算智能和脑科学.
E-mail: liangyuze@emails.bjut.edu.cn
冀俊忠
北京工业大学教授. 2004年获北京工业大学计算机应用技术专业博士学位, 2005年和2010 年分别在挪威科技大学、纽约州立大学布法罗分校做访问学者. 主要研究方向为机器学习, 计算智能, 生物信息学和脑科学. 本文通信作者.
E-mail: jjz01@bjut.edu.cn
相关文章
[1]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200684?viewType=HTML
[2]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200032?viewType=HTML
[3]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c180680?viewType=HTML
[4]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c210095?viewType=HTML
[5]
http://www.aas.net.cn/cn/article/id/5c0f8248-128b-40e9-96f8-342ee9ab40da?viewType=HTML
[6]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200714?viewType=HTML
[7]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200754?viewType=HTML
[8]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c180247?viewType=HTML
[9]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200277?viewType=HTML
[10]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c180523?viewType=HTML
[11]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200542?viewType=HTML
[12]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c200217?viewType=HTML
[13]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.c180213?viewType=HTML
[10]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.2018.c160835?viewType=HTML
[14]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.2016.c150736?viewType=HTML
[9]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.2016.c150658?viewType=HTML
[15]
http://www.aas.net.cn/cn/article/doi/10.16383/j.aas.2016.c150545?viewType=HTML
[16]
http://www.aas.net.cn/cn/article/doi/10.3724/SP.J.1004.2012.00659?viewType=HTML
[17]
http://www.aas.net.cn/cn/article/doi/10.3724/SP.J.1004.2011.00883?viewType=HTML
[18]
http://www.aas.net.cn/cn/article/doi/10.3724/SP.J.1004.2011.01455?viewType=HTML
[19]
http://www.aas.net.cn/cn/article/doi/10.3724/SP.J.1004.2008.01483?viewType=HTML
[20]
http://www.aas.net.cn/cn/article/doi/10.1360/aas-007-1136?viewType=HTML