解释谷歌DeepMind挑战赛,为什么选择围棋
谷歌DeepMind挑战赛,DeepMind创始人兼CEO德米斯•哈萨比斯(Demis Hassabis )博士
关于围棋的历史数据
为什么是围棋?
因为围棋是人类有史以来发明出来的最复杂的游戏,对于人工智能来说,这是一次最尖端的大挑战 需要直觉和计算,要想熟练玩围棋需要将模式识别和运筹帷幄结合在一起。
为什么围棋对于计算机来说很难?
围棋的复杂性让搜索变得不太好使 两个主要问题:搜索范围太大,不可能编写出评估功能来判断哪一方能够获胜。
直觉与计算
围棋与直觉的关系比它与计算的关系更大一些 因此在很多情况下,顶级选手必须更多地使用他们的直觉,不可能制定出一套规则来告诉计算机哪一方能够获胜。
培训深层神经网络
两个网络:策略与价值网络
策略网络:(每一步的概率分析)
价值网络:真正的数字:0白棋-1黑棋
价值网络:真正的数字:0白棋-1黑棋
将神经网络与树形搜索、测试结合
搜索树简化
评估AlphaGo与计算机的对抗
- 与计算机对手 对战结果494/495
- 让4子时胜率大于75%
- 使用分布式计算机时表现更强
评估AlphaGo与人的对抗
樊麾(Fan Hui):
- 2013年至2016年欧洲围棋冠军
- 2015年10月,AlphaGo与樊麾对战,AlphaGo 以5比0赢得比赛。
- 这也是计算机程序首次击败专业围棋选手,比 人工智能专家预测的时间早了 10年。
谷歌DeepMind团队在 2016年1月《Nature》上发表论文称,他们研发的人工智能算法击败了欧洲围棋冠军Fan Hui ,同时也击败了目前最好的围棋 中99.8%的对手。
谷歌DeepMind挑战赛,100万美金挑战赛(5局3胜制)首尔,3月9日至15日
去年十月以来的进步
拥有更多知识容量的更大网络,更高的质量和更多自我对弈培训数据,分布式计算延迟优化 超参数调整。
计算能力
我们将使用与范辉比赛时相同的计算能力,随着计算能力不断提高,因此带来的收益呈递减态势, 很难实现MCTS并行,分布式版本与单机版本对战时的胜率只有70%左右。
游戏是最佳测试平台
DeepMind 任务:解决智能问题,利用智能让世界变得更美好
通用学习机
- 学习:从原始输入而非预先编程的数据中自动学习
- 通用:同样的系统可以应用于各种不同的任务
- 人工通用智能(AGI):灵活、可适应、具有创造性
- 狭义人工智能:手工的、适用于特定案例、脆弱的
深蓝(Deep Blue )对阵加里•卡斯帕罗夫(Garry Kasparov )
深蓝 VS AlphaGo
深蓝:
- 人工输入的象棋知识
- 全局搜索
- 每秒2亿次局面
AlphaGo:
- 从专家对弈和自我对弈中学到的知识
- 由策略和价值网络引导的
- 高度选择性搜索
- 每秒10万次局面