慶應義塾大学学術情報リポジトリ(KOARA)KeiO Associated Repository of Academic resources

慶應義塾大学学術情報リポジトリ(KOARA)

ホーム  »»  アイテム一覧  »»  アイテム詳細

アイテム詳細

アイテムタイプ Article
ID
2022000010-20220090  
プレビュー
画像
thumbnail  
キャプション  
本文
2022000010-20220090.pdf
Type :application/pdf Download
Size :117.2 KB
Last updated :Jul 1, 2024
Downloads : 112

Total downloads since Jul 1, 2024 : 112
 
本文公開日
 
タイトル
タイトル 勾配ブースティングの高度化と応用に関する研究  
カナ コウバイ ブースティング ノ コウドカ ト オウヨウ ニ カンスル ケンキュウ  
ローマ字 Kōbai būsutingu no kōdoka to ōyō ni kansuru kenkyū  
別タイトル
名前 A study on the advancement and application of gradient boosting  
カナ  
ローマ字  
著者
名前 鈴木, 秀男  
カナ スズキ, ヒデオ  
ローマ字 Suzuki, Hideo  
所属 慶應義塾大学理工学部教授  
所属(翻訳)  
役割 Research team head  
外部リンク  
 
出版地
 
出版者
名前 慶應義塾大学  
カナ ケイオウ ギジュク ダイガク  
ローマ字 Keiō gijuku daigaku  
日付
出版年(from:yyyy) 2023  
出版年(to:yyyy)  
作成日(yyyy-mm-dd)  
更新日(yyyy-mm-dd)  
記録日(yyyy-mm-dd)  
形態
1 pdf  
上位タイトル
名前 学事振興資金研究成果実績報告書  
翻訳  
 
 
2022  
 
開始ページ  
終了ページ  
ISSN
 
ISBN
 
DOI
URI
JaLCDOI
NII論文ID
 
医中誌ID
 
その他ID
 
博士論文情報
学位授与番号  
学位授与年月日  
学位名  
学位授与機関  
抄録
教師あり学習のうちの一つである勾配ブースティングは、既に作成している学習器について、与えた損失関数によって得られる勾配を疑似的な残差として定義し、その残差に対して適合することでブースティングの構造を取る手法である。
本研究では、勾配ブースティングに対して正則化アルゴリズムと、Momentum SGD (Stochastic Gradient Boosting)やAdadelta、Adamといった最適化アルゴリズムを導入することにより、複数の手法を提案する。正則化は、作成するモデルの自由度に制限を加えることにより過学習を抑える効果がある。正則化項(または罰則項)を作成し、その値をモデルの損失と同時に扱う。本研究では、決定木の全ての葉のスコアにおける L1 正則化項、L2 正則化項を用いた。また、従来の SGD では、学習データをシャッフルし、その中からランダムに1つを取り出して誤差を計算し、勾配法により損失関数が小さくなるようにパラメータを更新する。従来のSGDの問題点として、収束が遅く振動や鞍点に陥ることがある。SGDを改良した Momentum SGD 等の手法では、既に得られている前の勾配情報を用いることで振動を抑制して従来のSDGの問題を緩和している。
勾配ブースティングに対する正則化および最適化アルゴリズムの効果を検証するために、UCI Machine Learning Repository のいくつのデータセットに対する予測精度と計算効率の指標の測定を行い、従来のSGD、SGD(正則化)、SGD(最適化アルゴリズム)、SGD(正則化+最適化アルゴリズムMomentum)の比較検討を行った。その結果、おおむね、予測精度および計算効率の観点から、SDG(正則化+ Adam)が良いことが示された。正則化と Momentum の相乗効果があることが示唆される。
今後、他の正則化項(例えば、Elastic NetやGrouped Lassoなど)、勾配ブースティングに特化した最適化アルゴリズムの提案が課題である。
Gradient boosting, regarded as one of the machine learning methods, is a method to take the structure of boosting by defining the gradient obtained by the given loss function as a pseudo residual and fitting it to the residual.
In this study, we propose several methods for gradient boosting by introducing regularization and optimization algorithms such as Momentum SGD (Stochastic Gradient Boosting), Adadelta, and Adam. Regularization has the effect of suppressing overfitting by constraining the degrees of freedom of the constructed model. The regularization term (or penalty term) is created, and its value is treated as the model loss. The regularization term is calculated numerically and added to the loss function obtained from the residual between the predicted and measured values. In this study, we use the L1 regularization term and the L2 regularization term in the scores of all leaves of the decision tree. In the conventional SGD, the training data is shuffled, one is randomly extracted from it, the error is calculated, and the parameters are updated so as to reduce the loss function by using the gradient method. The problem with the conventional SGD is that it converges slowly, causing vibrations and saddle points. The optimization algorithms, which are improved versions of the conventional SGD, suppress vibration by using the gradient information from the previous period, which enables us to alleviate the problems of the conventional SGD. In order to verify the effect of regularization and improved algorithms on gradient boosting, we measure the predictive accuracy and calculation efficiency indicators for several datasets of the UCI Machine Learning Repository, and compare those of the conventional SGD, SGD (regularization), SGD (improved algorithms) and SGD (regularization +improved algorithms). The result shows that SGD (regularization + Adam) is generally good in terms of prediction accuracy and calculation efficiency. It suggests that there is a synergistic effect of regularization and improved algorithms. In future studies, using other regularization terms (e.g., Elastic Net, grouped Lasso) and proposing a new algorithm customized for the gradient boosting are considered.
 
目次

 
キーワード
 
NDC
 
注記

 
言語
日本語  

英語  
資源タイプ
text  
ジャンル
Research Paper  
著者版フラグ
publisher  
関連DOI
アクセス条件

 
最終更新日
Jul 01, 2024 14:26:26  
作成日
Jul 01, 2024 14:26:26  
所有者
mediacenter
 
更新履歴
Jul 1, 2024    インデックス を変更
 
インデックス
/ Public / 塾内助成報告書 / 学事振興資金研究成果実績報告書 / 2022年度
 
関連アイテム
 

ランキング

最も多く閲覧されたアイテム
1位 日吉と矢上の考古... (983) 1st
2位 熊野別当系図の社... (687)
3位 新自由主義に抗す... (535)
4位 汚職, 公共投資, ... (406)
5位 日本企業における... (374)

最も多くダウンロードされたアイテム
1位 実践的な認証認可... (1285) 1st
2位 米国におけるエネ... (1067)
3位 忍術道歌 : 校本... (868)
4位 テキストマイニン... (808)
5位 楽天とアマゾンの... (775)

LINK

慶應義塾ホームページへ
慶應義塾大学メディアセンターデジタルコレクション
慶應義塾大学メディアセンター本部
慶應義塾研究者情報データベース