モンテカルロ木探索
#ゲームAI
で
#囲碁
を題材に作られたアルゴリズム。
#MCTS
(Monte Carlo Tree Search)
AlphaGo等で使われるのはMCTSの改良版である
#PV-MCTS
#UCB
= value + sqrt( 2 * ln(総プレイアウト数) / そのノードのプレイアウト数 )
を最大化するように探索するノードを選んでいく。進むノードがなくなった(展開したゲーム木の葉になった)ら、その後はランダム打ちで勝敗を決める
一定回数ノードが探索されたら子を展開する