モンテカルロ木探索
#ゲームAI で #囲碁 を題材に作られたアルゴリズム。 #MCTS (Monte Carlo Tree Search)
AlphaGo等で使われるのはMCTSの改良版である #PV-MCTS
#UCB = value + sqrt( 2 * ln(総プレイアウト数) / そのノードのプレイアウト数 )
を最大化するように探索するノードを選んでいく。進むノードがなくなった(展開したゲーム木の葉になった)ら、その後はランダム打ちで勝敗を決める
一定回数ノードが探索されたら子を展開する