ゲームで学ぶ探索アルゴリズム実践入門~木探索とメタヒューリスティクス

本日読了。

良書。

  • 貪欲法、ビームサーチ(深さと幅を指定して高スコア順に探索)、Chokudaiサーチ(幅の狭いビームを打ち、初手に戻ってサーチした中+これまでのサーチ結果からスコア順に次善を幅の分だけ選択)
  • 山登り法、焼きなまし法
  • 交互着手二人ゲーム。MiniMax法、AlphaBeta法、反復深化(制限時間内で順次探索を深くする)、原始モンテカルロ法(ランダムプレイアウト)、MCTS(UCB1の値が高い=適度に評価がよく未訪問の盤面を選択、評価回数が閾値を超えたノードは展開)、Thunderサーチ(勝率で評価、評価したノードは必ず展開)
  • 同時着手二人ゲーム。DUCT。
  • テクニック。評価関数として途中評価を入れる。同一盤面除去(Zobrist Hash)、高速化(ビットボード)