慶應義塾大学学術情報リポジトリ(KOARA)KeiO Associated Repository of Academic resources

慶應義塾大学学術情報リポジトリ(KOARA)

Home  »»  Listing item  »»  Detail

Detail

Item Type Article
ID
2017000001-20170033  
Preview
Image
thumbnail  
Caption  
Full text
2017000001-20170033.pdf
Type :application/pdf Download
Size :130.3 KB
Last updated :Feb 21, 2019
Downloads : 300

Total downloads since Feb 21, 2019 : 300
 
Release Date
 
Title
Title ディープラーニングを用いた画像診断支援システムの研究  
Kana ディープ ラーニング オ モチイタ ガゾウ シンダン シエン システム ノ ケンキュウ  
Romanization Dīpu rāningu o mochiita gazō shindan shien shisutemu no kenkyū  
Other Title
Title Study of image diagnostic support system using deep learning  
Kana  
Romanization  
Creator
Name 田中, 敏幸  
Kana タナカ, トシユキ  
Romanization Tanaka, Toshiyuki  
Affiliation 慶應義塾大学理工学部教授  
Affiliation (Translated)  
Role Research team head  
Link  
Edition
 
Place
 
Publisher
Name 慶應義塾大学  
Kana ケイオウ ギジュク ダイガク  
Romanization Keiō gijuku daigaku  
Date
Issued (from:yyyy) 2018  
Issued (to:yyyy)  
Created (yyyy-mm-dd)  
Updated (yyyy-mm-dd)  
Captured (yyyy-mm-dd)  
Physical description
1 pdf  
Source Title
Name 学事振興資金研究成果実績報告書  
Name (Translated)  
Volume  
Issue  
Year 2017  
Month  
Start page  
End page  
ISSN
 
ISBN
 
DOI
URI
JaLCDOI
NII Article ID
 
Ichushi ID
 
Other ID
 
Doctoral dissertation
Dissertation Number  
Date of granted  
Degree name  
Degree grantor  
Abstract
近年, 日本では社会の高齢化に伴い, 癌の罹患数・死亡数はともに増加傾向にある一方で, 診断を行う病理医の数は慢性的に不足している。そのため, コンピュータによる診断支援システムの開発が求められている。本研究では, 大腸がん, 胃がん, 子宮頸がんに対応した診断支援システムについて研究を行った。大腸がんと胃癌については, 畳み込みニューラルネットワーク(Convolutional Neural Network, CNN)を用いて患部の悪性度を判別する手法について検討を行った。データ解析の結果, 病理組織画像全体が均一に一つの悪性度特徴をもつことはなかったので, 画像を正方形小領域に分割し, 畳み込みニューラルネットワークの中でも評価の高いAlexNetを用いて, 各分割画像単位で悪性度判別を行った。しかし, 小領域に分割しても, 小領域内に複数の悪性度特徴が含まれる場合があり, それらの領域を訓練データの中に含めると学習結果に影響を及ぼすことが確認できた。訓練データとして, 一つの分割画像中に1種類の悪性度特徴のみをもつような学習データを集める必要がある。本研究では, そのようなデータを集めるためにも, AlexNetを用いることにした。まず, 使用する全分割画像データに対してAlexNetを利用して悪性度判別を行い, その段階で正しく判別した画像だけを訓練データとして利用することを試みた。ここで得られた訓練データは, 各悪性度Groupの典型的な症例画像であると考えることができる。次に, この訓練データを用いてAlexNetを再学習させた。AlexNetの学習方法, 学習率, dropout導入層の探索を行い, 最適なネットワーク構築について検討を行った。その結果, 学習方法としてfine-tuning, 学習率は10-4, dropoutとしてfc7層の条件の時, 悪性度の正判別率が最も高くなった。各Groupの感度および陽性検出率から算出されるF値はGroup1で94.4%, Group3が92.2%, Group5が96.2%となった。このように, すべてのGroupにおいて90%を超える分類精度を達成し, 分割画像単位で腫瘍と非腫瘍を判別することが可能となった。
Recently, the number of cancer patients in Japan has increased, leading to an aging society. However, the number of pathologists has not increased and remains insufficient for the increased number of patients. Therefore, a computer-aided diagnosis system for cancer is required by pathologists. This study investigated the diagnosis support systems for colon, gastric, and uterine cervical cancers. A convolutional neural network was used as the discriminant method for medical images of colon and uterine cervical cancers. In the data analysis results, because the whole pathological images have predominantly plural features at different malignant levels, the images were divided into numerous small square images that were used for classification of cancer malignancy, using a neural network such as AlexNet. Although these small regions were used for classification, they sometimes had plural features of malignancy. When these were used as training data for AlexNet, the classification results were influenced by the imperfect features. In this research, AlexNet was first used to extract high quality data from all of the divided medical images. In the classification, the correctly classified images were selected as the training data in the next step. The selected images seem to have the typical features of the training data. Next, AlexNet was trained by these selected data one more time. The learning method, learning rate, and searching of dropout introduced layers were assessed, and the optimal network structure was discussed. In the results, when fine-tuning was selected as the learning method, the learning rate was 10-4 and the fc7 layer was selected as the dropout ; the classification ratio of malignancy was rated as the most efficient. In each malignancy group, the F-measure was 94.4%, 92.2%, and 96.2% for group 1 (normal tissue), group 3 (benign tumor), and group 5 (cancer), respectively. As described, all of the groups had a classification ratio of over 90%, and non-cancer could be selected for the small divided images.
 
Table of contents

 
Keyword
 
NDC
 
Note

 
Language
日本語  

英語  
Type of resource
text  
Genre
Research Paper  
Text version
publisher  
Related DOI
Access conditions

 
Last modified date
Feb 21, 2019 13:07:26  
Creation date
Feb 21, 2019 13:07:26  
Registerd by
mediacenter
 
History
Feb 21, 2019    インデックス を変更
 
Index
/ Public / Internal Research Fund / Keio Gijuku Academic Development Funds Report / Academic year 2017
 
Related to