タグ

機械学習と最適化に関するskypenguinsのブックマーク (6)

  • ハイパーパラメーター最適化フレームワークOptunaの実装解説 | | AI tech studio

    AI Lab AutoMLチームの芝田です (GitHub: @c-bata)。 ハイパーパラメーター最適化は、機械学習モデルがその性能を発揮するために重要なプロセスの1つです。Pythonのハイパーパラメーター最適化ライブラリとして有名な Optuna [1] は、様々な最適化アルゴリズムに対応しつつも、使いやすく設計的にも優れたソフトウェアです。記事ではOptunaの内部実装についてソフトウェア的な側面を中心に解説します。 Optunaの内部実装を理解するためには、主要コンポーネントの役割と全体の動作の流れを押さえる必要があります。しかしOptunaの開発は活発で、コード量も多くなり、全体の流れをコードから読み取ることは難しくなってきました。そこで今回Minitunaという小さなプログラムを用意しました。Minitunaには全部で3つのversionがあり、それぞれ100行、200行

    ハイパーパラメーター最適化フレームワークOptunaの実装解説 | | AI tech studio
  • グラフニューラルネットワークとグラフ組合せ問題

    以下の二つの論文の紹介を中心に、グラフニューラルネットワークとグラフ組合せ問題の交わりについて解説しました。 SIG-FPAI での招待講演の内容に少し修正を加えたものです。 * Learning Combinatorial Optimization Algorithm over Graphs (NIPS 2017) * Approximation Ratios of Graph Neural Networks for Combinatorial Problems (NeurIPS 2019)Read less

    グラフニューラルネットワークとグラフ組合せ問題
  • ベイズ最適化で最高のコークハイを作る - わたぼこり美味しそう

    はじめに コークハイとか酎ハイをお店で飲むと、割り方とかレモンが効いていたりとかでお店によって結構違いが出ますよね 自分好みの最高のコークハイの作り方を知ることは全人類の夢だと思います。 記事は一足先にそんな夢に挑戦したという記事です。 手法としてはベイズ最適化を使用します。 実データで実験計画と絡めながらベイズ最適化を実際に行う記事はあまり見かけなかったので今回は、 最適化パラメータ 1. コーラとウイスキーの比 2. レモン汁の量 目的変数 コークハイの美味しさ という2次元入力、1次元出力で実際に実験とチューニングを並行しながら行ってみたいと思います。 目次 はじめに ベイズ最適化とは 実験系の説明 実験条件 実験で考慮しないこと(パラメータ) 実験材料 実験方法 スコアの付け方 実験をやりました(題) 実装コード 実験開始 ARDありver. 反省点 さいごに ベイズ最適化とは

    ベイズ最適化で最高のコークハイを作る - わたぼこり美味しそう
  • 確率的勾配降下法のメリットについて考えてみた

    機械学習初心者です。機械学習やディープラーニングでは、「確率的勾配降下法」というアルゴリズムがよく出てきますが、そのメリットがいまいちピンとこなかったので考えてみました。素人のポエムなのでトンチンカンなこと書いていると思います(そこそこ長いよ!)。 二次関数の最小値 全てはここから始まります。今回の確率的勾配降下法も、それのもととなった最急降下法も全てこれの応用です。 例:$ y=x^2-4x$ の最小値とそのときの$x$を求めなさい 参考:二次関数の最大値,最小値の2通りの求め方 数学的解法(1)~平方完成~ 高校数学でおなじみ(?)の平方完成をします。 $$y = (x^2-4x+4)-4 = (x-2)^2-4 $$ したがって、x=2のときに最小値-4です。簡単ですね。 しかし、次数や次元が増えていくと簡単に平方完成できなくなります。もう少し一般的に使える方法を考えます。 数学的解

    確率的勾配降下法のメリットについて考えてみた
  • 勾配法は本当に鞍点近傍にはまるのか?モース理論で考えてみる - Qiita

    TL;DR 勾配法はほとんどのケースで極小点に収束する(鞍点には収束しない) この事実は力学系や最適化の分野ではよく知られているが,機械学習では新しい? 数年前にバズった勾配法の比較動画は実際の学習現象を説明できていないかも 鞍点の近傍での振舞いで差がつく? いや,そもそも鞍点近傍に流れ込まないかも 比較動画に登場した鞍点は,実際にはまず生じないタイプかも 機械学習にも役立つモース理論 ほとんどすべての関数はモース関数 モース関数の臨界点のタイプはわずか $d+1$ 種類($d$ は定義域次元) 安定/不安定多様体とモース・スメール複体で勾配法の流れは分かる Monkey saddleはまず現れない(もし現れても簡単に消せる) 量的な問題に関しては,結局は実験するしかない この記事を書いたきっかけ 昨夜,ある論文を見かけて,ふとこんなツイートをした. ML業界,「勾配法が鞍点に収束する確率

    勾配法は本当に鞍点近傍にはまるのか?モース理論で考えてみる - Qiita
  • 勾配降下法の最適化アルゴリズムを概観する | POSTD

    (編注:2020/10/01、2016/07/29、いただいたフィードバックをもとに記事を修正いたしました。) 目次: さまざまな勾配降下法 バッチ勾配降下法 確率的勾配降下法 ミニバッチ勾配降下法 課題 勾配降下法を最適化するアルゴリズム Momentum(慣性) Nesterovの加速勾配降下法 Adagrad Adadelta RMSprop Adam アルゴリズムの可視化 どのオプティマイザを選ぶべき? SGDの並列化と分散化 Hogwild! Downpour SGD SGDのための遅延耐性アルゴリズム TensorFlow Elastic Averaging SGD 最適化されたSGDに対する更なる戦略 シャッフル学習とカリキュラム学習 バッチ正規化 早期終了 勾配ノイズ 結論 参考文献 勾配降下法は、最適化のための最も知られたアルゴリズムの1つです。これまではニューラルネット

    勾配降下法の最適化アルゴリズムを概観する | POSTD
  • 1