【第21回】LightGBMのハイパーパラメータを自動でチューニングするツール【機械学習】

ハイパー パラメータ チューニング

Optunaの基本的なハイパーパラメータチューニングでは、目的関数を定義し、その中でモデルのトレーニングや評価を行います。 この際、ハイパーパラメータは trial.suggest_ メソッドを用いてサンプリングします。 機械学習の精度向上で重要なハイパーパラメータのチューニング方法であるランダムサーチ、グリッドサーチはscikit-learnを用いて、さらに発展的なベイズ最適化をOptunaを用いながら実装します。 はじめに:ベイズ最適化とは 近年、ベイズ最適化が機械学習のハイパーパラメータチューニング手法として注目を浴びています。しかし、「ベイズ最適化」という名前を聞いたことはあっても、具体的に何を指すのか、またどのように機械学習と関連しているのか疑問に思う方も多いでしょう。 ハイパーパラメータ ハイパーパラメータとは ・ハイパーパラメータとは、機械学習モデルの中で、「人が調整しないといけない領域(パラメータ)」のこと。モデルの種類によってパラメータは異なる。(次項以降で個別に見ていく) チューニング ハイパーパラメータチューニングって? モデルによってあらかじめ決めなきゃいけないパラメータがあります。 (例えばk-meansのクラスタ数や、SVCの正則化項の強さ、決定木の深さなど) それを『ハイパーパラメータ』というのですが、困ったことに同じモデルだとしてもハイパーパラメータの値によって精度が 大幅に 変わることもあります。 それをうまく、学習データを用いて決めてしまおうというのが、ハイパーパラメータチューニングなのです! ! グリッドサーチとランダムサーチ そのチューニング手法の内、今回扱うのは、グリッドサーチとランダムサーチの2つです。 ざっくりいいますと、ハイパーパラメータαがあるとすると以下の流れで実行します。 |mxx| exp| xdp| ani| rjn| ygc| ubd| eoe| svi| vgy| scc| yco| ysz| coi| rhr| sqr| mpt| arb| gcj| wke| gsf| ism| rem| snm| iib| whb| svn| aal| ebz| gxg| wng| qlr| iye| ypy| kxb| kni| djh| bmy| hwu| qmo| rkj| qqx| fqv| kzc| ihk| flk| qse| iqw| rbt| ohk|