アイテムタイプ |
Article |
ID |
|
プレビュー |
画像 |
|
キャプション |
|
|
本文 |
2022000010-20220019.pdf
Type |
:application/pdf |
Download
|
Size |
:116.2 KB
|
Last updated |
:Jul 1, 2024 |
Downloads |
: 87 |
Total downloads since Jul 1, 2024 : 87
|
|
本文公開日 |
|
タイトル |
タイトル |
少ないデータに対する深層学習
|
カナ |
スクナイ データ ニ タイスル シンソウ ガクシュウ
|
ローマ字 |
Sukunai dēta ni taisuru shinsō gakushū
|
|
別タイトル |
名前 |
Deep learning with less data
|
カナ |
|
ローマ字 |
|
|
著者 |
名前 |
斎藤, 博昭
 |
カナ |
サイトウ, ヒロアキ
|
ローマ字 |
Saito, Hiroaki
|
所属 |
慶應義塾大学理工学部准教授
|
所属(翻訳) |
|
役割 |
Research team head
|
外部リンク |
|
|
版 |
|
出版地 |
|
出版者 |
名前 |
慶應義塾大学
|
カナ |
ケイオウ ギジュク ダイガク
|
ローマ字 |
Keiō gijuku daigaku
|
|
日付 |
出版年(from:yyyy) |
2023
|
出版年(to:yyyy) |
|
作成日(yyyy-mm-dd) |
|
更新日(yyyy-mm-dd) |
|
記録日(yyyy-mm-dd) |
|
|
形態 |
|
上位タイトル |
名前 |
学事振興資金研究成果実績報告書
|
翻訳 |
|
巻 |
|
号 |
|
年 |
2022
|
月 |
|
開始ページ |
|
終了ページ |
|
|
ISSN |
|
ISBN |
|
DOI |
|
URI |
|
JaLCDOI |
|
NII論文ID |
|
医中誌ID |
|
その他ID |
|
博士論文情報 |
学位授与番号 |
|
学位授与年月日 |
|
学位名 |
|
学位授与機関 |
|
|
抄録 |
近年対話AIが話題に上ることが多くなった.そういった対話応答システムを構築する際,モデル作成に大量の学習データが必要になる.英語や中国語と比較すると,データセットとして公開されている日本語の質の高いコーパスは少ない.そのため小さいデータや質の低いデータで十分な性能の対話応答生成を行うために,今回はTransformerベースのモデルに中国語と英語からの転移学習を利用した.転移学習自体はかなり前から研究されてきた手法であり,無の状態から学習するよりは,たとえ分野が違うモデルであったとしてもその有意性が認められている.今回はそれを1ターンの雑談対話生成というタスクで用い,実験を通して有効性を定量的に求めた.
データセットとして3つの日本語コーパスとTwitterから収集したコーパスを利用し,入力文に対しての雑談生成を行った.機械的に計算できる自動評価指標としての,生成対話文の多様性を表すdistinct-1の平均の値は,転移学習なしでは0.368,転移学習モデルの平均は0.412という値となり,転移学習の効果が確認できた.また,人間が主観で評価する,文の繋がり(入力文に対しての出力文の自然さ.入力にどれだけ関連しているか),情報の多さ(出力文から得られる情報の多さ.出力文の面白さ.独自性),人間らしさ(入力文関係なく,出力文単体での文としての自然さ)という3つの項目に関して,対話数が9343文の小さな学習データに対し,転移学習なしのモデルと比較してすべての項目で転移学習ありのモデルが大幅に良いスコアを示した.一方,大きな学習データに対しては,多様性は少し上がったものの他の指標に関しては転移学習をしても生成結果にはそれほど大きな効果は表れなかった.
Compared to English and Chinese, there are not many high quality publicly available corpora for Japanese in the task of chat dialog response generation. Therefore, in order to achieve a good enough performance in chat dialog generation with small and low quality data, this study utilized transfer learning from Chinese and English in the Transformer based model. Three Japanese corpora and a corpus collected from Twitter were used as the dataset to generate responses. The average value of the distinct-1 as an automatic evaluation index of the generated results was 0.368 without transfer learning, and 0.412 for the transfer learning model. In terms of human evaluation, the model with transfer learning scored significantly better on all three indices: sentence connection, informativeness, and humanness, compared to the model without transfer learning, for a small training dataset with 9343 sentences of dialogs.
|
|
目次 |
|
キーワード |
|
NDC |
|
注記 |
|
言語 |
|
資源タイプ |
|
ジャンル |
|
著者版フラグ |
|
関連DOI |
|
アクセス条件 |
|
最終更新日 |
|
作成日 |
|
所有者 |
|
更新履歴 |
|
インデックス |
|
関連アイテム |
|