2016年,是人工智能的崛起之年。
自从AlphaGo完胜围棋世界冠军李世石之后,代表围棋顶尖水平的玩家再也不是人类。
然而,今天金融时报的一篇文章让围棋重回人们的视野:人类找到了战胜AI的方法!
蛰伏7年,人类棋手要卷土重来了吗?
围棋逆风翻盘,人类战胜AI?
FT报道称,来自美国的业余四段棋手Kellin Pelrine,一举击败了顶级的下棋AI——KataGo。
在15场线下比赛中,Perline在没有计算机的帮助下,赢得了14场比赛。
而这个让人类棋手夺回围棋桂冠的计划,出自加州研究公司FAR AI的研究人员之手。该团队通过分析AI棋手的弱点加以针对,从而获得最后的胜利。
FAR AI的首席执行官Adam Gleave说:「对我们来说,利用这个系统非常容易。」
Gleave表示,团队研发的AI在与KataGo进行了100多万次的对局之后,发现了一个人类玩家可以利用的「bug」。
Pelrine说,他们发现的获胜策略「对人类来说并不难」,中级玩家可以使用它来击败机器。他还使用这种方法战胜了另一个顶级围棋系统Leela Zero。
Kellin Pelrine
FT写道,虽然有计算机的帮助,但这场决定性的胜利还是为人类棋手打开了一扇大门。
七年之前,人工智能在这项最复杂的游戏中遥遥领先于人类。
由DeepMind设计的AlphaGo系统,在2016年以4比1击败了围棋世界冠军李世石。李世石也在惨败三年后宣布退役,称AlphaGo是「无法击败的」。
而对于人工智能的这种强势,Pelrine不以为然。在他看来,棋局中大量的组合和变化,意味着计算机不可能评估棋手所有可能的未来招式。
简单来说,Pelrine使用的策略是「声东击西」。
一方面,Pelrine在棋盘的各个角落落子,迷惑AI;另一方面,Pelrine认准AI棋手的一片领域,逐渐将其四周包围。
Pelrine说,即使包围即将完成,AI棋手也没有注意到这一片区域的危险。他接着说:「但是作为人类,这些漏洞是很容易被发现的。」
加州大学伯克利分校计算机科学教授Stuart Russell说,一些最先进的围棋游戏机被发现存在弱点,这表明支撑当今最先进AI的深度学习系统存在根本缺陷。
他表示,这些系统只能「理解」他们经历过的特定情况,并且无法和人类一样,对策略进行简单的概括。
能战胜AI的,只有AI!
不过严格意义上来说,研究人员是通过AI打败了AI,或者说,用AI帮助人类在围棋中击败AI。
作为参考来源的论文,首次发表于2022年11月并在今年1月进行了更新,作者则分别来自于MIT、UC伯克利等机构。
文中,研究人员训练出了一个具有抗性策略的AI,进而击败了最先进的围棋人工智能系统KataGo。
项目地址:https://goattack.far.ai/adversarial-policy-katago#contents
论文地址:https://arxiv.org/abs/2211.00241
结果显示,当KataGo不使用搜索树时,攻击者在1000盘棋中取得了100%的胜率,而当KataGo使用足够多的搜索时,胜率超过97%。
对此,研究人员强调,对抗性策略AI可以击败KataGo,但它却会被人类业余爱好者战胜,与此同时人类业余爱好者是打不赢KataGo的。
也就是说,这个AI能够取胜,并不是因为围棋下得更好,而是它能诱使KataGo去犯下严重的错误。
攻击策略
在此之前,像是KataGo和AlphaZero等等这些下棋AI,都通过自我博弈进行训练的。
但在这项被作者称为「受害者游戏」(victim-play)的研究中,攻击者(adversary)需要通过与一个固定的受害者(victim)进行博弈,来训练自己的制胜策略(不是模仿对手的下法)。
对此,研究人员引入了两个不同的对抗性MCTS(A-MCTS)策略来解决这个问题。
- 样本A-MCTS-S:研究人员设置的搜索过程为:当受害者下棋时,从受害者的策略网络中采样;当轮到攻击者时,从攻击者的策略网络中采样。
- 递归A-MCTS-R:由于A-MCTS-S低估了受害者的实力,因此研究人员提出了一种新的策略A-MCTS-R。然而,这种变化增加了攻击者训练和推理的计算复杂性。
具体来说,在A-MCTS-R中,研究人员会在受害者节点上使用一个新的(递归)MCTS搜索来进行模拟,从而取代A-MCTS-S中的受害者采样步骤。
虽然这不再是一个完美的受害者模型,但它往往比A-MCTS-S更准确,因为后者会错误地假设受害者不进行搜索。
评估结果如下,具体细节可参阅原文。