不只是围棋AlphaGoZero之后D

浙江白癜风医院 http://m.39.net/pf/a_5638693.html

选自arXiv

作者:DavidSilver等

机器之心编译

在DeepMind发表Nature论文介绍AlphaGoZero之后,这家公司一直在寻求将这种强大算法泛化到其他任务中的可能性。昨天,AlphaGo研究团队提出了AlphaZero:一种可以从零开始,通过自我对弈强化学习在多种任务上达到超越人类水平的新算法。据称,新的算法经过不到24小时的训练后,可以在国际象棋和日本将棋上击败目前业内顶尖的计算机程序(这些程序早已超越人类世界冠军水平),也可以轻松击败训练3天时间的AlphaGoZero。AlphaZero为何如此强大?机器之心对论文全文进行了编译介绍,希望能以此带你一探究竟。

8个小时训练击败李世石版本AlphaGo

12小时训练击败世界顶级的国际象棋程序Stockfish

14小时训练击败世界顶级将棋程序Elmo

计算机国际象棋和计算机科学本身一样古老。查尔斯·巴贝奇、艾伦·图灵、克劳德·香农和冯诺依曼都曾设计硬件、算法以及理论来让计算机分析和玩国际象棋。国际象棋随后成为了一代人工智能研究者努力希望克服的挑战,最终,我们也实现了超越人类水平的国际象棋程序。然而,这些程序高度局限于它们所处的领域,在没有人类大幅度修改的情况下,无法被泛化去处理其他任务。

创造可以以简单规则为基础不断自我学习的程序一直是人工智能领域的重要目标。最近,AlphaGoZero算法在围棋上实现了超过人类水平的成绩,而背后使用的是卷积神经网络,只通过强化学习进行自我对弈训练。在本论文中,DeepMind实现了类似但完全泛化的算法(fullygenericalgorithm)——在未输入游戏规则以外任何知识的情况下,其推出的全新算法AlphaZero在国际象棋和日本将棋上实现了和围棋同样的高水平。DeepMind宣称该研究证明了AlphaZero作为一个通用性强化学习算法可以从零开始,在多种具有挑战性的任务上实现超越人类的水平。

人工智能领域的一个里程碑事件是年「深蓝」击败了人类世界冠军卡斯帕罗夫。在随后的20年里,计算机程序的国际象棋水平一直稳定处于人类之上。这些程序使用人类大师仔细调整的权重来评估落子步骤,同时结合了高性能的α-β搜索技术,通过大量启发式机制和对特定领域的适应而扩展出大的搜索树。这些程序包括年TopChessEngineChampionship(TCEC)世界冠军Stockfish;其他强大的国际象棋程序,包括「深蓝」,也使用了非常相似的架构。

在计算复杂性方面,日本将棋(Shogi)要比国际象棋复杂得多:前者有一个更大的棋盘,任何被吃的棋子都可以改变阵营重新上场,被放置在棋盘的大多数位置。此前最强大的将棋程序,如ComputerShogiAssociation(CSA)世界冠军Elmo直到年才击败了人类世界冠军。这些程序和计算机国际象棋程序使用了类似的算法,同样基于高度优化的α-β搜索引擎和很多对特定域的适应性调整。

围棋非常适合AlphaGo中的神经网络体系结构,因为游戏规则是转移不变的(与卷积神经网络的权重共享结构相对应),是根据棋盘上相邻点位的自由度来定义的(与卷积神经网络局部结构相对应),而且是旋转和镜像对称的(这允许数据增强和数据合成)。此外,围棋的动作空间很简单(一个子可能被落在每一个可能的位置上),游戏的结果仅限于二元的输或赢,而两者都有助于神经网络进行训练。

国际象棋和日本将棋可以说相对不适用于AlphaGo的神经网络架构。因为其规则是依赖于棋盘位置的(如两种棋类的棋子都可以通过移动到棋盘的某个位置而升级)而且不对称(如一些旗子只能向前移动,而另一些如王和后可以更自由的移动)。这些规则包含了远程互动(例如,后可以一步穿越整个棋盘,从远距离对王将军)。国际象棋的动作空间包含两名棋手棋盘上棋子的所有合法落子位置;而日本将棋甚至还允许被吃掉的棋子重返棋盘(加入另一方)。国际象棋和日本将棋都允许胜负之外的其他结果;事实上,人们相信国际象棋的最优解是平局。

AlphaZero算法是AlphaGoZero的通用化版本,后者首先被应用在了围棋任务上。它使用深度神经网络和从零开始的强化学习代替了手工编入的知识和特定领域的增强信息。

AlphaZero不使用手动编写的评估函数和移动排序启发式算法,转而使用深度神经网络(p,v)=f_θ(s)和参数θ。该神经网络将棋盘位置s作为输入,输出一个针对每个动作a的分量p_a=P_r(a

s)的移动概率p的向量,以及从位置s估计期望结果z的标量值v≈E[z

s]。AlphaZero完全从自我对弈中学习这些步的获胜概率;这些结果随后用于指导程序的搜索。

和α-β搜索使用领域特定的增强信息不同,AlphaZero使用了一个通用的蒙特卡罗树搜索(MCTS)算法。每一次搜索由一系列的自我对弈的模拟比赛组成,遍历了从根s_root到叶的整个树。每一次模拟通过在每个状态s中选择一个动作a,a具有低访问次数、高走棋概率(通过遍历从s选择了a的模拟的叶状态取平均得到)和根据当前神经网络f_θ决定的高价值。搜索会返回一个向量π表示走棋的概率分布,通常相对于根状态的访问次数是成比例的或贪婪的。

从随机初始化的参数θ开始,AlphaZero中的深度神经网络参数θ通过自我对弈强化学习来训练。双方玩家通过MCTS选择游戏动作为a_tπ_t。在游戏结束时,根据游戏规则对终端位置s_T进行评分,以计算游戏结果z:-1为输,0为平局,+1为赢。更新神经网络参数θ以使预测结果v_t和游戏结果z之间的误差最小化,并使策略向量p_t与搜索概率π_t的相似度最大化。具体而言,参数θ通过梯度下降分别在均方误差和交叉熵损失之和上的损失函数l进行调整。

其中c为控制L2权重正则化程度的参数,更新的参数将用于自我对弈子序列对弈。

本论文描述的AlphaZero算法主要在以下一些方面与原版的AlphaGoZero算法有不同。

若假设一局对弈的结果为胜利或失败两个状态,AlphaGoZero会估计并最优化胜利的概率。而AlphaZero反而会估计和优化结果的期望值,它会同时考虑平局或其它潜在的可能结果。

无论使用怎样的旋转和镜像映射,围棋的规则都是不变的。AlphaGo和AlphaGoZero都利用了这一事实。首先,通过为每个位置生成8次对称,来增强训练数据。其次,在MCTS(蒙特卡罗树搜索)中,在神经网络进行评估之前使用随机选择的旋转或反射转换棋盘局势,以使蒙特卡罗评估在不同的偏差中进行平均。象棋和将棋的规则是不对称的,且通常无法假设对称。在MCTS中,AlphaZero不增强训练数据,也不转换棋盘局势。

在AlphaGoZero中,自我对弈是由前面所有迭代步中最优玩家生成的。在每次训练的迭代结束后,新玩家的性能通过与最优玩家的对抗而衡量。如果新玩家能以55%的优势胜出,那么它就替代当前最优的玩家,而自我对弈的结果将由该新玩家产生。相反,AlphaZero只是简单地维护单个神经网络以连续更新最优解,而不需要等待一次迭代的完成。

图1:将AlphaZero训练,步。假设每手棋用时一秒,利用不同棋手之间的评估游戏计算国际等级分(Elorating)。a.AlphaZero在象棋中的表现,与TCEC世界冠军Stockfish进行对比。b.AlphaZero在将棋中的表现,与CSA世界冠军Elmo进行对比。c.AlphaZero在围棋中的表现,与AlphaGoLee和AlphaGoZero进行对比(20block/3day)(29)。

自我对弈通过使用这个神经网络最新的参数而生成,且省略了评估的步骤和最佳玩家的选择。

AlphaGoZero通过贝叶斯优化搜索超参数,而AlphaZero对于所有的对弈使用相同的超参数,而不会使用特定的超参数调整方法。唯一的例外是为了保证探索(29)而添加到先前策略的噪声,这与符合(对弈类型)规则的典型移动数成正比。

如同AlphaGoZero一样,棋盘状态仅基于每个对弈的基本规则空间进行编码。这些动作是由其它空间平面或平面向量进行编码,且仅仅基于每个游戏的基本规则。

我们把AlphaZero算法应用到了国际象棋、日本将棋和围棋上。除非另做说明,这三种棋类游戏使用的都是同样的算法设置、网络架构和超参数。我们为每一种棋类游戏训练了独立的AlphaZero实例。训练进行了70万步(批尺寸为),从随机初始化参数开始,使用5个第一代TPU生成自我对弈棋局和64个第二代TPU训练神经网络。关于训练过程的更多细节在Method中。

图1展示了AlphaZero在自我对弈强化学习中的性能,作为训练步的函数,以EloScale表示(10)。在国际象棋中,AlphaZero仅仅经过4小时(30万步)就超越了Stockfish;在日本将棋中,AlphaZero仅仅经过不到2小时(11万步)就超过了Elmo;而在围棋中,AlphaZero经过8小时(16.5万步)就超过了AlphaGoLee(29)。

我们评估了经过充分训练的AlphaZero在国际象棋、日本将棋和围棋上分别和Stockfish、Elmo以及经过3天训练的AlphaGoZero的场竞标赛的结果(从AlphaZero角度的赢/平/输),每个程序都是一步一分钟的思考时间。AlphaZero和AlphaGoZero使用4个TPU的单个机器进行比赛。Stockfish和Elmo使用64个线程和1GB的哈希表进行比赛。AlphaZero令人信服地打败了所有的对手,未输给Stockfish任何一场比赛,只输给了Elmo八场(补充材料理由几场比赛的示例),见表1。

表1:AlphaZero在国际象棋、日本将棋和围棋上分别和Stockfish、Elmo以及经过3天训练的AlphaGoZero的场比赛的结果(从AlphaZero角度的赢/平/输),每个程序都是一步一分钟的思考时间。

我们还分析了AlphaZero的蒙特卡罗树搜索(MCTS)和Stochfish、Elmo使用的当前最佳α-β搜索引擎的性能对比。AlphaZero在国际象棋中每秒搜索了8万个位置,在日本将棋中每秒搜索了4万个位置,而Stockfish每秒需要搜索0万个位置,Elmo每秒需要搜索万个位置。AlphaZero通过使用深度神经网络重点聚焦于最具潜在价值的走法(可以认为这是一种更加类似人类思考方式的搜索方法,由香农首次提出(27))。图2展示了每个玩家关于Eloscale的思考时间的可扩展性。AlphaZero的MCTS相比Stochfish和Elmo能更有效地伸缩思考时间,这使我们对人们广泛接受的α-β搜索在这些领域的内在优势提出了质疑。

最后,我们分析了由AlphaZero发现的象棋知识。表2分析了12个最常见的人类国际象棋开局分析(在线数据集记录出现超过了10万次)。每一个开局都由AlphaZero在自我对抗训练过程中独立发现并频繁使用。从每一个人类国际象棋开局开始,AlphaZero都能击败Stockfish,这表明它确实掌握了大量的国际象棋棋谱知识。

使用国际象棋比赛展示AI研究的前沿进展已经有几十年的历史。当前最佳的程序都是基于能搜索几百万个位置、利用人工编入的领域专业知识和复杂的领域适应性的引擎。AlphaZero是一个通用的强化学习算法(最初为围棋而设计),可以在数小时内达到优越的结果,其需要搜索的位置少了几千倍,除了国际象棋的规则外不需要任何的领域知识。此外,同样的算法不需要修改就可以应用到更具挑战性的日本将棋上,同样在数小时内超过了当前最佳结果。

表2:12个最常见的人类国际象棋开场局的分析(在线数据集记录出现超过了10万次)。每一个开局由其ECO码和常用名标记。这些图展示了AlphaZero在自我对抗训练棋局中使用这种开场局的比例随训练时间的变化。我们还报告了场AlphaZerovs.Stockfish每个比赛的开局和结果(从AlphaZero角度的赢/平/输,无论作为白方还是黑方)。最后,还报告了AlphaZero每个开局后的整体棋局主要变化。

图2:AlphaZero的思考时间的可扩展性。a.AlphaZero和Stockfish在象棋上的RelativeElo对比,横坐标为每一步的思考时间。b.AlphaZero和Elmo在日本将棋上的RelativeElo对比,横坐标为每一步的思考时间。

论文:MasteringChessandShogibySelf-PlaywithaGeneralReinforcementLearningAlgorithm

论文链接:


转载请注明:http://www.180woai.com/afhgx/1778.html


冀ICP备2021022604号-10

当前时间: