すごく久々に。
前回の内容、覚えてるかなw
前回まではTD学習について説明していて、最後に○×ゲームに対してQ学習を使ったAIを実装した。
今日からはTD()について説明していく。
動的計画法、モンテカルロ法、TD学習のおさらい
まずは、これまでのおさらいから。
動的計画法、モンテカルロ法、TD学習(Sarsa、Q学習)とやってきたわけだけど、これらはそれぞれ次のような特徴があった。
- 動的計画法
- モデルが分かっている場合に使える
- Bellman方程式を方策反復や価値反復で解いていく
- モンテカルロ法
- モデルが分かっていなくても使える
- 実際に何度も試行して、何度も収益を観測して平均化することで、状態行動対の価値を学習していく
- 収益が観測されるまで(=終端状態になるまで)学習は行えない
- TD学習
- モデルが分かっていなくても使える
- 行動した次の状態行動対の推定価値と、現在の状態行動対の推定価値の差分を使って、学習する
- 推定価値の差分は、直前の状態行動対の推定価値の学習にしか使われない
モデルが分かっている場合、計算に時間はかかるだろうけど、Bellman方程式を解いていく動的計画法を使うのが確実と言える。
ただ、実際にはモデルが分かっている場合というのは、少ないことが多い。
例えば、将棋とかで、この手を指したたら%の確率でこの局面に遷移するとか、明確に言えるはずもない。
一方、モデルが分かっていない場合には、モンテカルロ法とTD学習(Sarsa、Q学習)を使うことで、実際に何度も試行しながら価値を推定し、行動を改善していくことが出来る。
けど、それぞれに弱点があって、
- モンテカルロ法は、終端状態にならないと学習が行えない
- TD学習は、推定価値の差分が直前の状態行動対の学習にしか使われない
という問題があった。
モンテカルロ法とTD学習の融合
そこで、モンテカルロ法とTD学習を融合させたような学習方法を考えていく。
ステップTD予測
方策の元での行動価値というのは、次のように定義されていた:
ここで、収益というのは、
と再帰的に表現でき、1段目の式を用いて価値の推定を行うーーすなわち、最終的に得られた報酬の合計(=収益)を価値の推定に使うーーのがモンテカルロ法で、3段目の式を用いて価値の推定を行うーーすなわち、直後に得られた報酬と次に観測された状態行動対の推定価値の和を価値の推定に使うーーのがTD学習だった。
けど、よく考えてみれば、これはさらに再帰的に展開することが出来る。
具体的には、
そこで、ステップ先の推定価値を使う収益を、
とし、これをステップ収益と呼ぶことにする。
そうすると、ステップ収益を使って、行動価値を
と改善する方法が考えられて、これをステップTD法と呼ぶ。
なお、とすれば、なので、これはTD学習と一致することになる。
また、を限りなく大きくして全部展開すると、それはモンテカルロ法と一致することになる。
(ただし、厳密に平均をとる方法ではなく、ステップサイズを使う方法になる)
つまり、ステップTD法という枠で考えると、TD学習もモンテカルロ法もその一実装となって、その両端に存在するアルゴリズムであることが見えてくる。
ところで、実はまだ話は終わっていない。
というのも、さらに融合させる方法を考えることが出来るから。
これについては、明日見ていく。
今日はここまで!
- 作者: Richard S.Sutton,Andrew G.Barto,三上貞芳,皆川雅章
- 出版社/メーカー: 森北出版
- 発売日: 2000/12/01
- メディア: 単行本(ソフトカバー)
- 購入: 5人 クリック: 76回
- この商品を含むブログ (29件) を見る