慶應義塾大学学術情報リポジトリ(KOARA)KeiO Associated Repository of Academic resources

慶應義塾大学学術情報リポジトリ(KOARA)

ホーム  »»  アイテム一覧  »»  アイテム詳細

アイテム詳細

アイテムタイプ Article
ID
2021000003-20210092  
プレビュー
画像
thumbnail  
キャプション  
本文
2021000003-20210092.pdf
Type :application/pdf Download
Size :121.8 KB
Last updated :Feb 16, 2024
Downloads : 52

Total downloads since Feb 16, 2024 : 52
 
本文公開日
 
タイトル
タイトル 勾配ブースティングの高度化と応用に関する研究  
カナ コウバイ ブースティング ノ コウドカ ト オウヨウ ニ カンスル ケンキュウ  
ローマ字 Kōbai būsutingu no kōdoka to ōyō ni kansuru kenkyū  
別タイトル
名前 A study on the advancement and application of gradient boosting  
カナ  
ローマ字  
著者
名前 鈴木, 秀男  
カナ スズキ, ヒデオ  
ローマ字 Suzuki, Hideo  
所属 慶應義塾大学理工学部教授  
所属(翻訳)  
役割 Research team head  
外部リンク  
 
出版地
 
出版者
名前 慶應義塾大学  
カナ ケイオウ ギジュク ダイガク  
ローマ字 Keiō gijuku daigaku  
日付
出版年(from:yyyy) 2022  
出版年(to:yyyy)  
作成日(yyyy-mm-dd)  
更新日(yyyy-mm-dd)  
記録日(yyyy-mm-dd)  
形態
1 pdf  
上位タイトル
名前 学事振興資金研究成果実績報告書  
翻訳  
 
 
2021  
 
開始ページ  
終了ページ  
ISSN
 
ISBN
 
DOI
URI
JaLCDOI
NII論文ID
 
医中誌ID
 
その他ID
 
博士論文情報
学位授与番号  
学位授与年月日  
学位名  
学位授与機関  
抄録
本研究では、勾配ブースティングの予測精度および計算効率の向上を目指して、正則化項を考慮した損失関数、最適化に関する効率的なアルゴリズム(Momentum SGD(Stochastic Gradient Boosting)の考え方の導入)を検討した。正則化は、作成するモデルの自由度に制限を加えることにより過学習を抑える効果がある。正則化項(または罰則項)を作成し、その値をモデルの損失と同時に扱う。正則化項は数値で計算され、予測値と実測値との残差をから得られる損失関数に加えられる。本研究では、決定木の全ての葉のスコアにおけるL1正則化項、L2正則化項を用いた。また、従来のSGDでは、学習データをシャッフルし、その中からランダムに1つを取り出して誤差を計算し、勾配法により損失関数が小さくなるようにパラメータを更新する。SGDの問題点として、収束が遅く、振動や鞍点に陥ることがある。SDGを改良したMomentum SGDでは、1期前の勾配情報を用いることで振動を抑制して従来のSDGの問題を緩和している。勾配ブースティングに対する正則化およびMomentumの効果を検証するために、UCI Machine Learning Repository のいくつのデータセットに対する予測精度と計算効率の指標の測定を行い、従来のSGD、SGD(正則化)、SGD(Momentum)、SGD(正則化+Momentum)の比較検討を行った。その結果、おおむね、予測精度および計算効率の観点から、SDG(正則化+Momentum)が良いことが示された。正則化とMomentumの相乗効果があることが示唆される。
また、推薦システムに対する向スコアマッチングを用いたアプローチを提案し、既存手法となる協調フィルタリングとの比較を行うことで提案手法の優位性を示した。傾向スコアマッチングと勾配ブースティングの融合が今後の課題である。
In this study, aiming to improve the prediction accuracy and calculation efficiency of gradient boosting, we examine the loss function considering the regularization term and the efficient algorithm for optimization (use of the concept of Momentum SGD (Stochastic Gradient Boosting)). Regularization has the effect of suppressing overfitting by constraining the degrees of freedom of the constructed model. The regularization term (or penalty term) is created, and its value is treated as the model loss. The regularization term is calculated numerically and added to the loss function obtained from the residual between the predicted and measured values. In this study, we use the L1 regularization term and the L2 regularization term in the scores of all leaves of the decision tree. In the conventional SGD, the training data is shuffled, one is randomly extracted from it, the error is calculated, and the parameters are updated so as to reduce the loss function by using the gradient method. The problem with SGD is that it converges slowly, causing vibrations and saddle points. The Momentum SGD, which is an improved version of the SGD, suppresses vibration by using the gradient information from the previous period, which enables us to alleviate the problems of the conventional SGD. In order to verify the effect of regularization and Momentum on gradient boosting, we measure the predictive accuracy and calculation efficiency indicators for several datasets of the UCI Machine Learning Repository, and compare those of the conventional SGD, SGD (regularization), SGD (Momentum) and SGD (regularization + Momentum).The result shows that SGD (regularization + Momentum) is generally good in terms of prediction accuracy and calculation efficiency. It suggests that there is a synergistic effect of regularization and Momentum.
In addition, we propose an approach using the propensity score matching to recommender systems, and show the superiority of the proposed method by comparing it with collaborative filtering, which is regarded as an existing method. The examination for combining the propensity score matching with the gradient boosting is a future study.
 
目次

 
キーワード
 
NDC
 
注記

 
言語
日本語  

英語  
資源タイプ
text  
ジャンル
Research Paper  
著者版フラグ
publisher  
関連DOI
アクセス条件

 
最終更新日
Feb 16, 2024 14:11:05  
作成日
Feb 16, 2024 14:11:05  
所有者
mediacenter
 
更新履歴
Feb 16, 2024    インデックス を変更
 
インデックス
/ Public / 塾内助成報告書 / 学事振興資金研究成果実績報告書 / 2021年度
 
関連アイテム
 

ランキング

最も多く閲覧されたアイテム
1位 「危険の予見可能... (929) 1st
2位 慶應義塾大学日吉... (851)
3位 故意犯と過失犯の... (698)
4位 731部隊と細菌戦 ... (430)
5位 新自由主義に抗す... (408)

最も多くダウンロードされたアイテム
1位 アセトアニリドの... (856) 1st
2位 731部隊と細菌戦 ... (650)
3位 刑法における因果... (640)
4位 酢酸エステル類の... (629)
5位 インフルエンサー... (598)

LINK

慶應義塾ホームページへ
慶應義塾大学メディアセンターデジタルコレクション
慶應義塾大学メディアセンター本部
慶應義塾研究者情報データベース