题目:用于肺部CT肺结节分类的深度特征学习
- 原文链接(IEEE):《》
摘要
在这篇论文,我们提出了一个重要的在肺部CT确定肺结节的方法。具体地说,我们设计了一个从固有的原始手工图片特征中提取抽象信息的审年度神经网络。然后我们将深度学习出来的表述和开始的原始图像特征整合到一个长的特征矢量中。通过使用这个联合特征矢量,我们训练了一个分类器,之前通过了t-test的特征选择。为了验证提出的方法是有效的,我们用我们的内部数据集做了实验。内部数据集包括3598个肺结节(恶性:178,良性:3420),它们由一个医生手动分割。在我们的实验中,我们最高达到了95.5%的准确率,94.4%的敏感率和AUC达i到了0.987,比与我们竞争的其他方法表现优良。
I. 介绍
在世界范围内,肺癌死亡是最常见的导致死亡的原因之一[1]。大量的方法被尝试用来减低肺癌死亡率。我们知道,一旦癌症在早期被检测出来,那么治疗会更有效也更有利于我们去克服它。此外,为了减轻医生们由于阅读大量CT而疲劳造成的误诊,计算机辅助检测引起了人们很大的兴趣。
从临床角度来看,大于3mm的结节一般被称为肺结节[2]而更大的结节很容易变成癌细胞。因此,通过检测和观察结节的诊断筛选是重要的。为了这一目的,计算机辅助筛选系统在过去十年被提出,尽管由于它们的低性能而没有被用于临床。
最近,受到深度学习在计算机视觉和语言识别领域的巨大成功的激励,很多人努力将这项技术用于医疗检测,特别是CT中的结节检测。比如,Roth等人用卷积神经网络(CNN)[3],进行结节检测[4]。Ciompi等人,用CNN进行结节提取用来识别肺部围裂结节[5]。为了提高检测准确率,他们同时利用了轴、冠状面、矢状位面的信息。同时,Fakoor等人和Kumar等人,独立研究通过Stacked AutoEncoder(SAE)[6]进行心脏基因组分类[6]和肺结节分类[7]。尽管前述的基于深度学习的方法在他们自己的实验中也展现了很多成效,但他们大多忽略了如周长、圆周、集成密度、中值、偏度、峰值和结节这样的形态信息,这些信息并不能从卷积深度模型中提取出来。在这篇论文,我们提出了用深度模型来寻找潜在的形态特征,然后将深度学习到的信息和原始形态特征相结合。至于深度特征学习,我们是呀那个来Stacked Denosing AutoEncoder(SDAE)[8]。我们的工作受到了Suk等人工作[11]的启发,他们将阿尔茨海默氏病的原始的神经学影像特征和深度学习特征联系到了一起。
II.提出的方法
A.数据集和形态特征
我们收集了20个病人的CT扫描(男/女:7/13,年龄:63.5+-7.7).肺结节由一个经验丰富的医生手工分割。总体上,我们有178个恶性和3420个良性结节(Table 1).Figure 1给出了肺结节采样的样例,它们内部和之间变化很大,给结节分类带来了挑战。从每个结节我们提取了96个形态特征,即 area, mean Hounsfield Units (HU) 1 , standard deviation,mode, min, max, perimeter, circularity diameter, integrateddensity, median, skewness, kurtosis, raw integrated density,ferret angle, min ferret, aspect, ratio, roundness, solidity,entropy, run length matrix (44 values) [9], and gray-level cooccurrence matrix (32 values) [10].
B.学习高度相关信息
为了更好的利用特征信息,我们用SDAE来发现形态特征之间潜在的非线性相关。SDAE的结构是按照等级划分的方式堆栈(stackong)多个自动编码器(autoencoder)。一个AE是一个有一个输入层一个隐藏层和一个输出层的多层神经网络。输入输出层神经元的个数由输入特征x∈R**d即d,而隐藏层神经元的数量可以是任意个。在AE中,隐藏层(h)和输出层(o)神经元的值如下得到:
C.特征选择和分类器训练
通过之前在模式识别领域的工作,我们很好地了解到在分类器选择千的特征选择对提升分类器性能是很有帮助的[11]。受他们的工作激励,我们应用了一个通过特征和种类标签之间的统计学测试进行特征选择的方法。实际上,我们对每个特征分别进行了一个简单的t-test,当测试的p-value大于预设门槛,我们认为对应的特征没有提供对分类有用的信息。基于被选择的特征,我们最后训练了一个线性的支持向量机(SVM),它以及在很多应用中证明了它作为一个分类器的效能[12]。
III.实验结果
A.实验设置
B.性能表现
我们使用了四个度量进行性能评测,即准确性,敏感性,特异性和接受者操作特意曲线下的区域(AUC)。Figure 1比较了用不同测试单元进行的性能评价AUC的平均值,而其他性能用百分号表示。Original+SDAE特征在每个性能表现都更优异。特别的,准确性和敏感性分别提高了2.1%和3.4%。
IV.总结
在这篇论文,我们提出来用深度结构去寻找CT扫描的肺结节分类中潜在的非线性形态信息。临床上,在早起阶段找到恶性结节是十分重要的。我们的深度学习特征在分别良性和恶性结节方面表现了巨大威力,在敏感度方面有了巨大提高。
Acknowledge
This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education (NRF-2015R1C1A1A01052216).The authors gratefully acknowledge technical supports from Biomedical Imaging Infrastructure, Department of Radiology, Asan Medical Center.
Reference
[1] B. W. Stewart and C. P. Wild, editors, World Cancer Report 2014. Lyon,France: International Agency for Research on Cancer, Feb. 2014.
[2] M. K. Gould, J. Fletcher, M. D. Iannettoni, W. R. Lynch, D. E. Midthun,D. P. Naidich, and D. E. Ost, “Evaluation of Patients with Pulmonary Nodules: When is it lung cancer?: ACCP evidence-based clinical practice guidelines, 2ed edition” Chest, Vol. 132, No. 3, pp. 108-130, Sep. 2007.
[3] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based Learning Applied to Document Recognition,” Proceedings of the IEEE,Vol. 86, No. 11, pp. 2278-2324, Nov. 1998.
[4] H. R. Roth, L. Lu, J. Liu, J. Yao, A. Seff, K. Cherry, L. Kim, and R. M.Summers, “Improving Computer-aided Detection using Convolutional Neural Networks and Random View Aggregation,” arXiv:1505.03046,Sep. 2015.
[5] F. Ciompi, B. de Hoop, S. J. van Riel, K. Chung, E. Th. Scholten, M.Oudkerk, P. A de Jong, M. Prokop, and B. van Ginneken, “Automatic Classification of Pulmonary Peri-Fissural Nodules in Computed Tomography Using an Ensemble of 2D views and a Convolutional Neural Network Out-of-the-Box,” Medical Image Analysis, Vol. 26, No. 1, pp.195-202, Dec. 2015.
[6] R. Fakoor, F. Ladhak, A. Nazi, and M. Huber, “Using Deep Learning to Enhance Cancer Diagnosis and Classification,” Proc. of the ICML Workshop on the Role of Machine Learning in Transforming Healthcare (WHEALTH), Vol 28, June 2013
[7] D. Kumar, A. Wong, and D. A. Clausi, “Lung Nodule Classification Using Deep Features in CT Images,” Proc. 12th Conference on Computer and Robot Vision (CRV), pp. 133-138, June 2015.
[8] P. Vincent, H. Larochelle, I. Lajoie, Y. Bengio, and P. Manzagol,“Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion,” The Journal of Machine Learning Research, Vol. 11, pp. 3371-3408, Mar. 2010.
[9] X. Tang, “Texture Information in Run-length Matrices,” IEEE Transactions on Image Processing, Vol. 7, No. 11, pp.1602-1609, Nov.1998.
[10] R. M. Hatalick, K. Shanmugam, and I. Dinstein, “Textural Features for Image Classificaiton,” IEEE Transactions on Systems, Man and Cybernetics, Vol. 3, No. 6, pp. 610-621, Nov. 1973.
[11] H.-I. Suk, S.-W. Lee, and D. Shen, “Latent Feature Representation with Stacked Auto-Encoder for AD/MCI Diagnosis,” Brain Structure & Function, Vol. 220, No. 2, pp. 841-859, Mar. 2015.
[12] G. E. Hinton and R. R. Salakhutdinov, “Reducing the Dimensionality of Data with Neural Networks,” Science, Vol. 313, No. 5786, pp. 504-507, July 2006.
[13] D. E. Rumelhart, G. E. Hinton, and R. J. Williams, “Learning Representations by Back-propagating Errors,” Nature, Vol. 323, No. 9, pp.533-536, Oct. 1986.