慶應義塾大学学術情報リポジトリ(KOARA)KeiO Associated Repository of Academic resources

慶應義塾大学学術情報リポジトリ(KOARA)

Home  »»  Listing item  »»  Detail

Detail

Item Type Article
ID
2022000010-20220090  
Preview
Image
thumbnail  
Caption  
Full text
2022000010-20220090.pdf
Type :application/pdf Download
Size :117.2 KB
Last updated :Jul 1, 2024
Downloads : 147

Total downloads since Jul 1, 2024 : 147
 
Release Date
 
Title
Title 勾配ブースティングの高度化と応用に関する研究  
Kana コウバイ ブースティング ノ コウドカ ト オウヨウ ニ カンスル ケンキュウ  
Romanization Kōbai būsutingu no kōdoka to ōyō ni kansuru kenkyū  
Other Title
Title A study on the advancement and application of gradient boosting  
Kana  
Romanization  
Creator
Name 鈴木, 秀男  
Kana スズキ, ヒデオ  
Romanization Suzuki, Hideo  
Affiliation 慶應義塾大学理工学部教授  
Affiliation (Translated)  
Role Research team head  
Link  
Edition
 
Place
 
Publisher
Name 慶應義塾大学  
Kana ケイオウ ギジュク ダイガク  
Romanization Keiō gijuku daigaku  
Date
Issued (from:yyyy) 2023  
Issued (to:yyyy)  
Created (yyyy-mm-dd)  
Updated (yyyy-mm-dd)  
Captured (yyyy-mm-dd)  
Physical description
1 pdf  
Source Title
Name 学事振興資金研究成果実績報告書  
Name (Translated)  
Volume  
Issue  
Year 2022  
Month  
Start page  
End page  
ISSN
 
ISBN
 
DOI
URI
JaLCDOI
NII Article ID
 
Ichushi ID
 
Other ID
 
Doctoral dissertation
Dissertation Number  
Date of granted  
Degree name  
Degree grantor  
Abstract
教師あり学習のうちの一つである勾配ブースティングは、既に作成している学習器について、与えた損失関数によって得られる勾配を疑似的な残差として定義し、その残差に対して適合することでブースティングの構造を取る手法である。
本研究では、勾配ブースティングに対して正則化アルゴリズムと、Momentum SGD (Stochastic Gradient Boosting)やAdadelta、Adamといった最適化アルゴリズムを導入することにより、複数の手法を提案する。正則化は、作成するモデルの自由度に制限を加えることにより過学習を抑える効果がある。正則化項(または罰則項)を作成し、その値をモデルの損失と同時に扱う。本研究では、決定木の全ての葉のスコアにおける L1 正則化項、L2 正則化項を用いた。また、従来の SGD では、学習データをシャッフルし、その中からランダムに1つを取り出して誤差を計算し、勾配法により損失関数が小さくなるようにパラメータを更新する。従来のSGDの問題点として、収束が遅く振動や鞍点に陥ることがある。SGDを改良した Momentum SGD 等の手法では、既に得られている前の勾配情報を用いることで振動を抑制して従来のSDGの問題を緩和している。
勾配ブースティングに対する正則化および最適化アルゴリズムの効果を検証するために、UCI Machine Learning Repository のいくつのデータセットに対する予測精度と計算効率の指標の測定を行い、従来のSGD、SGD(正則化)、SGD(最適化アルゴリズム)、SGD(正則化+最適化アルゴリズムMomentum)の比較検討を行った。その結果、おおむね、予測精度および計算効率の観点から、SDG(正則化+ Adam)が良いことが示された。正則化と Momentum の相乗効果があることが示唆される。
今後、他の正則化項(例えば、Elastic NetやGrouped Lassoなど)、勾配ブースティングに特化した最適化アルゴリズムの提案が課題である。
Gradient boosting, regarded as one of the machine learning methods, is a method to take the structure of boosting by defining the gradient obtained by the given loss function as a pseudo residual and fitting it to the residual.
In this study, we propose several methods for gradient boosting by introducing regularization and optimization algorithms such as Momentum SGD (Stochastic Gradient Boosting), Adadelta, and Adam. Regularization has the effect of suppressing overfitting by constraining the degrees of freedom of the constructed model. The regularization term (or penalty term) is created, and its value is treated as the model loss. The regularization term is calculated numerically and added to the loss function obtained from the residual between the predicted and measured values. In this study, we use the L1 regularization term and the L2 regularization term in the scores of all leaves of the decision tree. In the conventional SGD, the training data is shuffled, one is randomly extracted from it, the error is calculated, and the parameters are updated so as to reduce the loss function by using the gradient method. The problem with the conventional SGD is that it converges slowly, causing vibrations and saddle points. The optimization algorithms, which are improved versions of the conventional SGD, suppress vibration by using the gradient information from the previous period, which enables us to alleviate the problems of the conventional SGD. In order to verify the effect of regularization and improved algorithms on gradient boosting, we measure the predictive accuracy and calculation efficiency indicators for several datasets of the UCI Machine Learning Repository, and compare those of the conventional SGD, SGD (regularization), SGD (improved algorithms) and SGD (regularization +improved algorithms). The result shows that SGD (regularization + Adam) is generally good in terms of prediction accuracy and calculation efficiency. It suggests that there is a synergistic effect of regularization and improved algorithms. In future studies, using other regularization terms (e.g., Elastic Net, grouped Lasso) and proposing a new algorithm customized for the gradient boosting are considered.
 
Table of contents

 
Keyword
 
NDC
 
Note

 
Language
日本語  

英語  
Type of resource
text  
Genre
Research Paper  
Text version
publisher  
Related DOI
Access conditions

 
Last modified date
Jul 01, 2024 14:26:26  
Creation date
Jul 01, 2024 14:26:26  
Registerd by
mediacenter
 
History
Jul 1, 2024    インデックス を変更
 
Index
/ Public / Internal Research Fund / Keio Gijuku Academic Development Funds Report / Academic year 2022
 
Related to