極小化極大演算法的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

極小化極大演算法的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦(美)馬克思•帕佩拉寫的 深度學習與圍棋 和(美)大衛·科派克的 算法精粹:經典計算機科學問題的Python實現都 可以從中找到所需的評價。

另外網站電腦如何下象棋|最新文章 - 科技大觀園也說明:電腦能正確產生合法走步後,便可利用有限深度的極小極大演算法展開對局樹,並在適當的終端節點評估局勢的利弊得失而加以數值化。常見的考慮因素包括棋子的多寡、棋子的靈活 ...

這兩本書分別來自人民郵電 和人民郵電所出版 。

國立臺灣師範大學 資訊工程學系 林順喜所指導 唐豪的 暗棋殘局庫的壓縮與實做 (2019),提出極小化極大演算法關鍵因素是什麼,來自於暗棋、殘局庫、位元棋盤、殘局庫壓縮。

而第二篇論文國立清華大學 資訊工程學系 韓永楷所指導 鄭鉅翰的 有限賽局中利用有限預算謀取多數勝局之上線策略 (2014),提出因為有 有限賽局、拍賣理論、有限預算、最佳策略的重點而找出了 極小化極大演算法的解答。

最後網站完美數演算法作業 - Tzpage則補充:演算法 筆記- Chordal Graph 極小化極大演算法. Minimax演算法(亦稱MinMax or MM [1] )又名極小化極大演算法,是一種找出失敗的最大可能性中的最小值的演算法。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了極小化極大演算法,大家也想知道這些:

深度學習與圍棋

為了解決極小化極大演算法的問題,作者(美)馬克思•帕佩拉 這樣論述:

這是一本深入淺出且極富趣味的深度學書。本書選取深度學年來的突破之一 AlphaGo,將其背後的技術和原理娓娓道來,並配合一套基於 BetaGo 的開原始程式碼,帶領讀者從零開始一步步實現自己的“AlphaGo”。本書側重實踐,深入淺出,庖丁解牛般地將深度學lphaGo這樣深奧的話題變人、觸手可及,內容精彩。 全書共分為3個部分:第一部分介紹機器學棋的基礎知識,並構建一個最簡圍棋機器人,作為後面章節內容的基礎;第二部分分層次深入介紹AlphaGo背後的機器學度學括樹搜索、神經網路、深度學人和強化學及強化學個高級技巧括策略梯度、價值評估方法、演員-評價方法 3 類技術;第三部分將前面兩部分準備好

的知識集成到一起,並最終引導讀者實現自己的AlphaGo,以及版AlphaGo Zero。讀完本書之後,讀者會對深度學學科以及AlphaGo的技術細節有全面的瞭解,一步深入鑽研AI理論、拓展AI應用打下良好基礎。 本書不要求讀者對AI或圍棋有任何瞭解,只需要瞭解基本的Python語法以及基礎的線性代數和微積分知識。 馬克斯·帕佩拉(Max Pumperla),供職於Skymind公司,是一位專職研究深度學據科學家和工程師。他是深度學Aetros的聯合創始人。 凱文·費格森(Kevin Ferguson),在分散式系統和資料科學領域擁20年的工作經驗。他是Honor公司的

資料科學家,曾就職于穀歌和Meebo等公司。 馬克斯·帕佩拉和凱文·費格森都是經驗豐富的深度學,擁有豐富的分散式系統和資料科學方面的知識。他們是開源圍棋機器人 BetaGo 的共同創造者。 第一部分 基礎知識 第1章 深度學器學 3 1.1 什麼是機器學 1.1.1 機器學I的關係 5 1.1.2 機器學什麼,不能做什麼 6 1.2 機器學 7 1.2.1 在軟體應用中使用機器學 1.2.2 監督學1 1.2.3 無監督學2 1.2.4 強化學2 1.3 深度學3 1.4 閱讀本書能學到什麼 14 1.5 小結 15 第2章 圍棋與機器學6 2.1 為什麼選擇遊戲 16

2.2 圍棋快速入門 17 2.2.1 瞭解棋盤 17 2.2.2 落子與吃子 18 2.2.3 終盤與勝負計算 19 2.2.4 理解劫爭 20 2.2.5 讓子 20 2.3 更多學 20 2.4 我們可以教會電腦什麼 21 2.4.1 如何開局 21 2.4.2 搜索遊戲狀態 21 2.4.3 減少需要考慮的動作數量 22 2.4.4 評估遊戲狀態 22 2.5 如何評估圍棋AI的能力 23 2.5.1 傳統圍棋評級 23 2.5.2 對圍棋A行基準測試 24 2.6 小結 24 第3章 實現第 一個圍棋機器人 25 3.1 在Python中表達圍棋遊戲 25 3.1.1 實現圍棋棋盤

28 3.1.2 在圍棋中跟蹤相連的棋組:棋鏈 28 3.1.3 在棋盤上落子和提子 30 3.2 跟蹤遊戲狀態並檢查非法動作 32 3.2.1 自吃 33 3.2.2 劫爭 34 3.3 終盤 36 3.4 創建自己的第 一個機器人:理論上最弱的圍棋AI 37 3.5 使用Zobrist雜湊加速棋局 41 3.6 人機對弈 46 3.7 小結 47 第二部分 機器學戲AI 第4章 使用樹搜索下棋 51 4.1 遊戲分類 52 4.2 利用極小化極大搜索預測對手 53 4.3 井字棋推演:一個極小化極大演算法的示例 56 4.4 通過剪枝演算法縮減搜索空間 58 4.4.1 通過棋局評估減少

搜索深度 60 4.4.2 利用α-β剪枝縮減搜索寬度 63 4.5 使用蒙特卡洛樹搜索評估遊戲狀態 66 4.5.1 在Python中實現蒙特卡洛樹搜索 69 4.5.2 如何選擇繼續探索的分支 72 4.5.3 將蒙特卡洛樹搜索應用於圍棋 74 4.6 小結 76 第5章 神經網路入門 77 5.1 一個簡單的用例:手寫數字分類 78 5.1.1 MNIST手寫數字資料集 78 5.1.2 MNIST數據的預處理 79 5.2 神經網路基礎 85 5.2.1 將對率回歸描述為簡單的神經網路 85 5.2.2 具有多個輸出維度的神經網路 85 5.3 前饋網路 86 5.4 我們的預測有多好

?損失函數及優化 89 5.4.1 什麼是損失函數 89 5.4.2 均方誤差 89 5.4.3 在損失函數中找極小值 90 5.4.4 使用梯度下降法找極小值 91 5.4.5 損失函數的隨機梯度下降演算法 92 5.4.6 通過網路反向傳播梯度 93 5.5 在Python中逐步訓練神經網路 95 5.5.1 Python中的神經網路層 96 5.5.2 神經網路中的啟動層 97 5.5.3 在Python中實現稠密層 98 5.5.4 Python順序神經網路 100 5.5.5 將網路集成到手寫數位分類應用中 102 5.6 小結 103 第6章 為圍棋資料設計神經網路 105 6.1

為神經網路編碼圍棋棋局 107 6.2 生成樹搜索遊戲用作網路訓練資料 109 6.3 使用Keras深度學112 6.3.1 瞭解Keras的設計原理 112 6.3.2 安裝Keras深度學113 6.3.3 熱身運動:在Keras中運行一個熟悉的示例 113 6.3.4 使用Keras中的前饋神經網行動作預測 115 6.4 使用卷積網路分析空間 119 6.4.1 卷積的直觀解釋 119 6.4.2 用Keras構建卷積神經網路 122 6.4.3 用池化層縮減空間 123 6.5 預測圍棋動作概率 124 6.5.1 在最後一層使用softmax啟動函數 125 6.5.2 分類問

題的交叉熵損失函數 126 6.6 使用丟棄和線性整流單元構建更深的網路 127 6.6.1 通過丟棄神經元對網行正則化 128 6.6.2 線性整流單元啟動函數 129 6.7 構建更強大的圍棋動作預測網路 130 6.8 小結 133 第7章 從數據中學建深度學人 134 7.1 導入圍棋棋譜 135 7.1.1 SGF檔案格式 136 7.1.2 從KGS下載圍棋棋譜並複盤 136 7.2 為深度學圍棋數據 137 7.2.1 從SGF棋譜中複盤圍棋棋局 138 7.2.2 構建圍棋資料處理器 139 7.2.3 構建可以地載入資料的圍棋資料生成器 146 7.2.4 並行圍棋資料處理和

生成器 147 7.3 基於真實棋局資料訓練深度學 148 7.4 構建更逼真的圍棋資料編碼器 152 7.5 使用自我調整梯行的訓練 155 7.5.1 在SGD中採用衰減和動量 155 7.5.2 使用Adagrad優化神經網路 156 7.5.3 使用Adadelta優化自我調整梯度 157 7.6 運行自己的實驗並評估性能 157 7.6.1 測試架構與超參數的指南 158 7.6.2 評估訓練與測試資料的性能指標 159 7.7 小結 160 第8章 實地部署圍棋機器人 162 8.1 用深度神經網路創建動作預測代理 163 8.2 為圍棋機器人提供Web前端 165 8.3 在雲端

訓練與部署圍棋機器人 169 8.4 與其他機器人對話:圍棋文本協定 170 8.5 在本地與其他機器人對弈 172 8.5.1 機器人應該何時跳過回合或認輸 172 8.5.2 讓機器人與其他圍棋程行對弈 173 8.6 將圍棋機器人部署到線上圍棋伺服器 178 8.7 小結 182 第9章 通過實踐學化學83 9.1 強化學 184 9.2 經括哪些內容 185 9.3 建立一個有學的代理 188 9.3.1 從某個概率分佈行抽樣 189 9.3.2 剪裁概率分佈 190 9.3.3 初始化一個代理實例 191 9.3.4 在磁片上載入並保存代理 191 9.3.5 實現動作選擇 193

9.4 自我對弈:電腦程行實踐訓練的方式 194 9.4.1 經驗資料的表示 194 9.4.2 模擬棋局 197 9.5 小結 199 第10章 基於策略梯度的強化學00 10.1 如何在隨機棋局中識別更佳的決策 201 10.2 使用梯度下降法修改神經網路的策略 204 10.3 使用自我對行訓練的幾個小技巧 208 10.3.1 評估學展 208 10.3.2 衡量強度的細微差別 209 10.3.3 SGD優化器的微調 210 10.4 小結 213 第11章 基於價值評估方法的強化學14 11.1 使用Q學行遊戲 214 11.2 在Keras中實現Q學18 11.2.1 在Kera

s中構建雙輸入網路 218 11.2.2 用Keras實現ε貪婪策略 222 11.2.3 訓練一個行動-價值函數 225 11.3 小結 226 第12章 基於演員-評價方法的強化學27 12.1 優勢能夠告訴我們哪些決策更加重要 227 12.1.1 什麼是優勢 228 12.1.2 在自我對弈過程中計算優勢值 230 12.2 為演員-評價學神經網路 232 12.3 用演員-評價代理下棋 234 12.4 用經驗資料訓練一個演員-評價代理 235 12.5 小結 240 第三部分 一加一大於二 第 13章 AlphaGo:全部集結 243 13.1 為AlphaGo訓練深度神經網路

245 13.1.1 AlphaGo的網路架構 246 13.1.2 AlphaGo棋盤編碼器 248 13.1.3 訓練AlphaGo風格的策略網路 250 13.2 用策略網路啟動自我對弈 252 13.3 從自我對弈資料衍生出一個價值網路 254 13.4 用策略網路和價值網路做出更好的搜索 254 13.4.1 用神經網路蒙特卡洛推演 255 13.4.2 用合併價值函行樹搜索 256 13.4.3 實現AlphaGo的搜索演算法 258 13.5 訓練自己的AlphaGo可能遇到的實踐問題 263 13.6 小結 265 第14章 AlphaGo Zero:將強化學到樹搜索中 266

14.1 為樹搜索構建一個神經網路 267 14.2 使用神經網路來指導樹搜索 268 14.2.1 沿搜尋樹下行 271 14.2.2 擴展搜尋樹 274 14.2.3 選擇一個動作 276 14.3 訓練 277 14.4 用狄利克雷雜訊探索 281 14.5 處理超深度神經網路的相關 282 14.5.1 批量歸一化 282 14.5.2 殘差網路 283 14.6 探索額外資源 284 14.7 結語 285 14.8 小結 285 附錄A 數學基礎 286 附錄B 反向傳播演算法 293 附錄C 圍棋程式與圍棋伺服器 297 附錄D 用AWS來訓練和部署圍棋程式與圍棋伺服器 30

0 附錄E 將機器人發佈到OGS 307

暗棋殘局庫的壓縮與實做

為了解決極小化極大演算法的問題,作者唐豪 這樣論述:

暗棋是由中國象棋衍生的一種具有隱藏訊息的遊戲。相較於圍棋、西洋棋等高複雜度遊戲,其複雜度主要來自於隨機性。近年來因AlphaGo的出現,電腦在高複雜度的完全資訊遊戲處理上有了極大的進步。但面對不完全資訊遊戲的處理還不是那麼成熟,反而是傳統的極小化極大演算法、alpha-beta剪枝法對於不完全資訊遊戲有較高的適應性。此類演算法要找到最佳解將需要大量的思考時間,如何減少程式的思考時間是一個重要的課題。在面對殘局時,暗棋常常出現剩下少許子數卻需執行大量走步才能使遊戲結束的情況。殘局庫的製作及使用將能大大增強暗棋程式的棋力。本研究針對暗棋製作殘局庫,運用回溯分析法生成殘局庫,以位元棋盤(bitbo

ard)加快合法走步的搜索和遊戲勝負的判斷。最後以一個無衝突的對射函數(bijective function)對棋子位置進行索引,並記錄遊戲結果及到達該結果所需步數。

算法精粹:經典計算機科學問題的Python實現

為了解決極小化極大演算法的問題,作者(美)大衛·科派克 這樣論述:

本書是一本面向中高級程式師的演算法教程,借助Python語言,用經典的演算法、編碼技術和原理來求解電腦科學的一些經典問題。   全書共9章,不僅介紹了遞迴、結果緩存和位元操作等基本程式設計組件,還講述了常見的搜索演算法、常見的圖演算法、神經網路、遺傳演算法、k均值聚類演算法、對抗搜索演算法等,運用了類型提示等Python高級特性,並通過各級方案、示例和習題展開具體實踐。 本書將電腦科學與應用程式、資料、性能等現實問題深度關聯,定位獨特,示例經典,適合有一定程式設計經驗的中高級Python程式師提升用Python解決實際問題的技術、程式設計和應用能力。 大衛·科派克(Dav

id Kopec)是香普蘭學院(Champlain College)的電腦科學與創新專業助理教授,該學院位於美國佛蒙特州的伯靈頓市。他是一位經驗豐富的軟體發展人員,也是Classic Computer Science Problems in Swift和Dart for Absolute Beginners的作者。他擁有達特茅斯學院(Dartmouth College)的經濟學學士學位和電腦科學碩士學位。 第1章 幾個小問題 1 1.1 斐波那契序列 1 1.1.1 嘗試次遞迴 1 1.1.2 基線條件的運用 3 1.1.3 用結果緩存來救場 4 1.1.4 自動化的結果緩

存 5 1.1.5 簡潔至上的斐波那契 6 1.1.6 用生成器生成斐波那契數 7 1.2 簡單的壓縮演算法 7 1.3 牢不可破的加密方案 12 1.3.1 按順序讀取資料 12 1.3.2 加密和解密 13 1.4 計算15 1.5 漢諾塔15 1.5.1 對塔進行建模 16 1.5.2 求解漢諾塔問題 17 1.6 現實世界的應用 19 1.7 習題 20 第 2 章 搜索問題 21 2.1 DNA搜索 21 2.1.1 DNA的存儲方案 22 2.1.2 線性搜索 23 2.1.3 二分搜索 24 2.1.4 通用示例 26 2.2 求解迷宮問題 28 2.2.1 生成一個隨機迷宮 

29 2.2.2 迷宮的其他函數 30 2.2.3 深度優先搜索 31 2.2.4 廣度優先搜索 35 2.2.5 A搜索 39 2.3 傳教士和食人族 44 2.3.1 表達問題 45 2.3.2 求解 47 2.4 現實世界的應用 48 2.5 習題 49 第3章 約束滿足問題 51 3.1 構建約束滿足問題的解決框架 52 3.2 澳大利亞地圖著色問題 55 3.3 八皇后問題 58 3.4 單詞搜索 60 3.5 字謎(SEND+MORE=MONEY) 63 3.6 電路板佈局 65 3.7 現實世界的應用 66 3.8 習題 67 第4章 圖問題 69 4.1 地圖就是圖 69

4.2 搭建圖的框架 71 4.3 查找短路徑 77 4.4 小化網路構建成本 79 4.4.1 權重的處理 79 4.4.2 查找小生成樹 83 4.5 在加權圖中查找短路徑 89 4.6 現實世界的應用 95 4.7 習題 96 第5章 遺傳演算法 97 5.1 生物學背景知識 97 5.2 通用的遺傳演算法 98 5.3 簡單測試 105 5.4 重新考慮SEND+MORE=MONEY問題 107 5.5 優化清單壓縮演算法 111 5.6 遺傳演算法面臨的挑戰 113 5.7 現實世界的應用 114 5.8 習題 115 第6章 k均值聚類 117 6.1 預備知識 117 6.2

 k均值聚類演算法 119 6.3 按年齡和經度對州長進行聚類 124 6.4 按長度聚類邁克爾·傑克遜的專輯 128 6.5 k均值聚類演算法問題及其擴展 130 6.6 現實世界的應用 131 6.7 習題 131 第7章 十分簡單的神經網路 133 7.1 生物學基礎 133 7.2 人工神經網路 135 7.2.1 神經元 135 7.2.2 分層 136 7.2.3 反向傳播 137 7.2.4 全貌 139 7.3 預備知識 140 7.3.1 點積 140 7.3.2 啟動函數 140 7.4 構建神經網路 142 7.4.1 神經元的實現 142 7.4.2 層的實現 143

7.4.3 神經網路的實現 145 7.5 分類問題 148 7.5.1 數據的歸一化 148 7.5.2 經典的鳶尾花資料集 149 7.5.3 葡萄酒的分類 152 7.6 為神經網路提速 155 7.7 神經網路問題及其擴展 156 7.8 現實世界的應用 157 7.9 習題 157 第8章 對抗搜索 159 8.1 棋盤遊戲的基礎組件 159 8.2 井字棋 161 8.2.1 井字棋的狀態管理 161 8.2.2 極小化極大演算法 164 8.2.3 用井字棋測試極小化極大演算法 167 8.2.4 開發井字棋AI 168 8.3 四子棋 169 8.3.1 四子棋遊戲程式 1

70 8.3.2 四子棋AI 175 8.3.3 用α-β剪枝演算法優化極小化極大演算法 177 8.4 α-β剪枝效果的極小化極大演算法改進方案 178 8.5 現實世界的應用 179 8.6 習題 179 第9章 其他問題 181 9.1 背包問題 181 9.2 旅行商問題 186 9.2.1 樸素解法 186 9.2.2 進階 191 9.3 電話號碼助記符 191 9.4 現實世界的應用 193 9.5 習題 194 附錄A 術語表 195 附錄B 其他資料 201 附錄C 類型提示簡介 205

有限賽局中利用有限預算謀取多數勝局之上線策略

為了解決極小化極大演算法的問題,作者鄭鉅翰 這樣論述:

自1961年William Vickery提出拍賣理論之雛形,許多人相繼投入這片領域。無論現實活動與遊戲競賽,不乏憑藉固有資源累積小籌碼以獲得最後勝利的情形,如選舉、商業貿易之區域競爭,抑或桌遊「上流社會」、「鬼屋拍賣」,都符合這種概念。我們建立一種賽局模型,試圖模擬並找出此情況下的最佳策略:玩家利用有限的初始預算,在有限局數中每局以第一價格暗標(first-price sealed-bid auction)競標,物品價值由給定的機率分佈函數所決定,得標者付出競標金額並得到該回合物品,最後取得總物品價值最高者獲勝。競標者必須審慎分配其預算至各局,才能在關鍵時刻拿下關鍵局數。利用極小化極大演算

法(Min-max algorithm)與動態規劃(dynamic programming),藉由定義「勝利倒數值」(countdown value),我們求得對任意局數T之賽局的理想預算比,以及相應的完整競標策略,亦即當初始預算是對手的幾倍時,能確保玩家獲勝。我們更進一步找到動態規劃矩陣的解析解,將演算法的時間複雜度降至O(T)。若允許玩家最多輸對手不超過給定的分差,經由平移原始矩陣,可以在僅改變初始條件的情況下,求得理想預算比。對全支付(all-pay)的拍賣形式,也有同樣成果。