慶應義塾大学学術情報リポジトリ(KOARA)KeiO Associated Repository of Academic resources

慶應義塾大学学術情報リポジトリ(KOARA)

ホーム  »»  アイテム一覧  »»  アイテム詳細

アイテム詳細

アイテムタイプ Article
ID
2022000010-20220019  
プレビュー
画像
thumbnail  
キャプション  
本文
2022000010-20220019.pdf
Type :application/pdf Download
Size :116.2 KB
Last updated :Jul 1, 2024
Downloads : 87

Total downloads since Jul 1, 2024 : 87
 
本文公開日
 
タイトル
タイトル 少ないデータに対する深層学習  
カナ スクナイ データ ニ タイスル シンソウ ガクシュウ  
ローマ字 Sukunai dēta ni taisuru shinsō gakushū  
別タイトル
名前 Deep learning with less data  
カナ  
ローマ字  
著者
名前 斎藤, 博昭  
カナ サイトウ, ヒロアキ  
ローマ字 Saito, Hiroaki  
所属 慶應義塾大学理工学部准教授  
所属(翻訳)  
役割 Research team head  
外部リンク  
 
出版地
 
出版者
名前 慶應義塾大学  
カナ ケイオウ ギジュク ダイガク  
ローマ字 Keiō gijuku daigaku  
日付
出版年(from:yyyy) 2023  
出版年(to:yyyy)  
作成日(yyyy-mm-dd)  
更新日(yyyy-mm-dd)  
記録日(yyyy-mm-dd)  
形態
1 pdf  
上位タイトル
名前 学事振興資金研究成果実績報告書  
翻訳  
 
 
2022  
 
開始ページ  
終了ページ  
ISSN
 
ISBN
 
DOI
URI
JaLCDOI
NII論文ID
 
医中誌ID
 
その他ID
 
博士論文情報
学位授与番号  
学位授与年月日  
学位名  
学位授与機関  
抄録
近年対話AIが話題に上ることが多くなった.そういった対話応答システムを構築する際,モデル作成に大量の学習データが必要になる.英語や中国語と比較すると,データセットとして公開されている日本語の質の高いコーパスは少ない.そのため小さいデータや質の低いデータで十分な性能の対話応答生成を行うために,今回はTransformerベースのモデルに中国語と英語からの転移学習を利用した.転移学習自体はかなり前から研究されてきた手法であり,無の状態から学習するよりは,たとえ分野が違うモデルであったとしてもその有意性が認められている.今回はそれを1ターンの雑談対話生成というタスクで用い,実験を通して有効性を定量的に求めた.
データセットとして3つの日本語コーパスとTwitterから収集したコーパスを利用し,入力文に対しての雑談生成を行った.機械的に計算できる自動評価指標としての,生成対話文の多様性を表すdistinct-1の平均の値は,転移学習なしでは0.368,転移学習モデルの平均は0.412という値となり,転移学習の効果が確認できた.また,人間が主観で評価する,文の繋がり(入力文に対しての出力文の自然さ.入力にどれだけ関連しているか),情報の多さ(出力文から得られる情報の多さ.出力文の面白さ.独自性),人間らしさ(入力文関係なく,出力文単体での文としての自然さ)という3つの項目に関して,対話数が9343文の小さな学習データに対し,転移学習なしのモデルと比較してすべての項目で転移学習ありのモデルが大幅に良いスコアを示した.一方,大きな学習データに対しては,多様性は少し上がったものの他の指標に関しては転移学習をしても生成結果にはそれほど大きな効果は表れなかった.
Compared to English and Chinese, there are not many high quality publicly available corpora for Japanese in the task of chat dialog response generation. Therefore, in order to achieve a good enough performance in chat dialog generation with small and low quality data, this study utilized transfer learning from Chinese and English in the Transformer based model. Three Japanese corpora and a corpus collected from Twitter were used as the dataset to generate responses. The average value of the distinct-1 as an automatic evaluation index of the generated results was 0.368 without transfer learning, and 0.412 for the transfer learning model. In terms of human evaluation, the model with transfer learning scored significantly better on all three indices: sentence connection, informativeness, and humanness, compared to the model without transfer learning, for a small training dataset with 9343 sentences of dialogs.
 
目次

 
キーワード
 
NDC
 
注記

 
言語
日本語  

英語  
資源タイプ
text  
ジャンル
Research Paper  
著者版フラグ
publisher  
関連DOI
アクセス条件

 
最終更新日
Jul 01, 2024 14:26:09  
作成日
Jul 01, 2024 14:26:09  
所有者
mediacenter
 
更新履歴
Jul 1, 2024    インデックス を変更
 
インデックス
/ Public / 塾内助成報告書 / 学事振興資金研究成果実績報告書 / 2022年度
 
関連アイテム
 

ランキング

最も多く閲覧されたアイテム
1位 ジャッフェ『ワル... (747) 1st
2位 新自由主義に抗す... (590)
3位 競争と独占 (500)
4位 731部隊と細菌戦 ... (492)
5位 Die Ghettogeschi... (456)

最も多くダウンロードされたアイテム
1位 慶應義塾大学薬学... (1591) 1st
2位 ジャッフェ『ワル... (1200)
3位 セマンティックマ... (1160)
4位 家族主義と個人主... (736)
5位 中国古代の声と文... (718)

LINK

慶應義塾ホームページへ
慶應義塾大学メディアセンターデジタルコレクション
慶應義塾大学メディアセンター本部
慶應義塾研究者情報データベース