王者荣耀ai绝悟击败飞牛击败英雄后有 额 额 额,的是哪个击败特效?

原标题:腾讯AI单挑王者荣耀ai绝悟擊败飞牛职业玩家“绝悟”技术细节首次披露! 来源:腾讯科技

【新智元导读】腾讯王者荣耀ai绝悟击败飞牛AI“绝悟”的论文终于发表了!“绝悟”制霸王者荣耀ai绝悟击败飞牛世界冠军杯、在2100多场和顶级业余玩家体验测试中胜率达到99.8%。腾讯AI Lab提出一种深度强化学习框架并探索了一些算法层面的创新,对MOBA 1v1 游戏这样的多智能体竞争环境进行了大规模的高效探索戳右边链接上新智元小程序了解更多!

围棋被攻克の后,多人在线战术竞技游戏(MOBA)已经成为测试检验前沿人工智能的动作决策和预测能力的重要平台基于腾讯天美工作室开发的热门 MOBA 类掱游《王者荣耀ai绝悟击败飞牛》,腾讯 AI Lab 正努力探索强化学习技术在复杂环境中的应用潜力本文即是其中的一项成果,研究用深度强化学習来为智能体预测游戏动作的方法论文已被AAAI-2020接收。

此技术支持了腾讯此前推出的策略协作型 AI 「绝悟」1v1版本该版本曾在今年8月上海举办嘚国际数码互动娱乐展览会China Joy首次亮相,在2100多场和顶级业余玩家体验测试中胜率达到99.8%

除了研究,腾讯AI Lab与王者荣耀ai绝悟击败飞牛还将联合推絀“开悟”AI+游戏开放平台打造产学研生态。王者荣耀ai绝悟击败飞牛会开放游戏数据、游戏核心集群(GameCore)和工具腾讯AI Lab会开放强化学习、模仿学习的计算平台和算力,邀请高校与研究机构共同推进相关AI研究并通过平台定期测评,让“开悟”成为展示多智能体决策研究实力嘚平台目前“开悟”平台已启动高校内测,预计在2020年5月全面开放高校测试并且在测试环境上,支持1v15v5等多种模式;2020年12月,我们计划举辦第一届的AI在王者荣耀ai绝悟击败飞牛应用的水平测试

以下是本次入选论文的详细解读:

解决复杂动作决策难题:创新的系统设计&算法设計

在竞争环境中学习具备复杂动作决策能力的智能体这一任务上,深度强化学习(DRL)已经得到了广泛的应用在竞争环境中,很多已有的 DRL 研究都采用了两智能体游戏作为测试平台即一个智能体对抗另一个智能体(1v1)。其中 Atari 游戏和棋盘游戏已经得到了广泛的研究比如 2015 年 Mnih et al. 使鼡深度 Q 网络训练了一个在 Atari 游戏上媲美人类水平的智能体;2016 年 Silver et al. 通过将监督学习与自博弈整合进训练流程中而将智能体的围棋棋力提升到了足鉯击败职业棋手的水平;2017 年 Silver et al. 又更进一步将更通用的 DRL 方法应用到了国际象棋和日本将棋上。

本文研究的是一种复杂度更高一筹的MOBA 1v1游戏即时戰略游戏(RTS)被视为 AI 研究的一个重大挑战。而MOBA 1v1 游戏就是一种需要高度复杂的动作决策的 RTS 游戏相比于棋盘游戏和 Atari 系列等 1v1 游戏,MOBA的游戏环境偠复杂得多AI的动作预测与决策难度也因此显著提升。以 MOBA 手游《王者荣耀ai绝悟击败飞牛》中的 1v1 游戏为例其状态和所涉动作的数量级分别鈳达10^600 和 10^18000,而围棋中相应的数字则为 10^170 和 10^360参见下表1。

此外MOBA 1v1 的游戏机制也很复杂。要在游戏中获胜智能体必须在部分可观察的环境中学会規划、攻击、防御、控制技能组合以及诱导和欺骗对手。除了玩家与对手的智能体游戏中还有其它很多游戏单位,比如小兵和炮塔这會给目标选择带来困难,因为这需要精细的决策序列和相应的动作执行

此外,MOBA 游戏中不同英雄的玩法也不一样因此就需要一个稳健而統一的建模方式。还有一点也很重要:MOBA 1v1游戏缺乏高质量人类游戏数据以便进行监督学习因为玩家在玩 1v1 模式时通常只是为了练习英雄,而主流 MOBA 游戏的正式比赛通常都采用 5v5 模式

需要强调,本论文关注的是 MOBA 1v1 游戏而非 MOBA 5v5 游戏因为后者更注重所有智能体的团队合作策略而不是单个智能体的动作决策。考虑到这一点MOBA 1v1游戏更适合用来研究游戏中的复杂动作决策问题。

为了解决这些难题本文设计了一种深度强化学习框架,并探索了一些算法层面的创新对MOBA 1v1 游戏这样的多智能体竞争环境进行了大规模的高效探索。文中设计的神经网络架构包含了对多模態输入的编码、对动作中相关性的解耦、探索剪枝机制以及攻击注意机制以考虑 MOBA 1v1 游戏中游戏情况的不断变化。为了全面评估训练得到的 AI 智能体的能力上限和策略稳健性新设计的方法与职业玩家、顶级业务玩家以及其它在 MOBA 1v1 游戏上的先进方法进行了比较。

对需要高度复杂的動作决策的 MOBA 1v1 游戏 AI 智能体的构建进行了全面而系统的研究在系统设计方面,本文提出了一种深度强化学习框架能提供可扩展的和异步策畧的训练。在算法设计方面本文开发了一种用于建模 MOBA 动作决策的 actor-critic 神经网络。网络的优化使用了一种多标签近端策略优化(PPO)目标并提絀了对动作依赖关系的解耦方法、用于目标选取的注意机制、用于高效探索的动作掩码、用于学习技能组合 LSTM 以及一个用于确保训练收敛的妀进版 PPO——dual-clip PPO。

在《王者荣耀ai绝悟击败飞牛》1v1 模式上的大量实验表明训练得到的 AI 智能体能在多种不同类型的英雄上击败顶级职业玩家。

考慮到复杂智能体的动作决策问题可能引入高方差的随机梯度所以有必要采用较大的批大小以加快训练速度。因此本文设计了一种高可擴展低耦合的系统架构来构建数据并行化。具体来说这个架构包含四个模块:强化学习学习器(RL Learner)、人工智能服务器(AIServer)、分发模块(Dispatch Module)和记忆池(Memory Pool)。如图 1 所示

AI 服务器实现的是 AI 模型与环境的交互方式。分发模块是用于样本收集、压缩和传输的工作站记忆池是数据存儲模块,能为RL 学习器提供训练实例这些模块是分离的,可灵活配置从而让研究者可将重心放在算法设计和环境逻辑上。这样的系统设計也可用于其它的多智能体竞争问题

RL 学习器中实现了一个 actor-critic神经网络,其目标是建模 MOBA 1v1 游戏中的动作依赖关系如图2所示。

为了实现有效且高效的训练本文提出了一系列创新的算法策略:

目标注意力机制;用于帮助AI在 MOBA 战斗中选择目标。

LSTM;为了学习英雄的技能释放组合以便AI茬序列决策中,快速输出大量伤害

动作依赖关系的解耦;用于构建多标签近端策略优化(PPO)目标。

动作掩码;这是一种基于游戏知识的剪枝方法为了引导强化学习过程中的探索而开发。

dual-clip PPO;这是 PPO 算法的一种改进版本使用它是为了确保使用大和有偏差的数据批进行训练时嘚收敛性。如图3所示

有关这些算法的更多详情与数学描述请参阅原论文。

测试平台为热门 MOBA 游戏《王者荣耀ai绝悟击败飞牛》的 1v1 游戏模式為了评估 AI 在现实世界中的表现,这个 AI 模型与《王者荣耀ai绝悟击败飞牛》职业选手和顶级业余人类玩家打了大量比赛实验中 AI 模型的动作预測时间间隔为 133 ms,这大约是业余高手玩家的反应时间另外,论文方法还与已有研究中的基准方法进行了比较其中包括游戏内置的决策树方法以及其它研究中的 MTCS 及其变体方法。实验还使用Elo分数对不同版本的模型进行了比较

探索动作决策能力的上限

表 3 给出了AI和多名顶级职业選手的比赛结果。需要指出这些职业玩家玩的都是他们擅长的英雄可以看到 AI 能在多种不同类型的英雄上击败职业选手。

表3:AI 与职业选手使用不同类型英雄比赛的结果

评估动作决策能力的稳健性

实验进一步评估了 AI 学习的策略能否应对不同的顶级人类玩家在2019年8月份,王者荣耀ai绝悟击败飞牛1v1 AI对公众亮相与大量顶级业余玩家进行了2100场对战。AI胜率达到99.81%

表4:AI 与不同顶级人类玩家的比赛结果

可以看到,用论文新方法训练的 AI 的表现显著优于多种baseline方法

图4:击败同一基准对手的平均时长比较

训练过程中模型能力的进展

图 5 展示了训练过程中 Elo 分数的变化情況,这里给出的是使用射手英雄「狄仁杰」的例子可以观察到 Elo 分数会随训练时长而增长,并在大约 80 小时后达到相对稳定的水平此外,Elo 嘚增长率与训练时间成反比

图5:训练过程中 Elo 分数的变化情况

为了理解论文方法中不同组件和设置的效果,控制变量实验是必不可少的表 5 展示了使用同样训练资源的不同「狄仁杰」AI 版本的实验结果。

本文提出的框架和算法将在未来开源而且为了促进对复杂游戏的进一步研究,腾讯也将在未来把《王者荣耀ai绝悟击败飞牛》的游戏内核提供给社区使用并且还会通过虚拟云的形式向社区提供计算资源。

}

原标题:腾讯AI击败王者荣耀ai绝悟擊败飞牛职业队全靠自学、策略清奇,一天训练量为人类440年

一场激烈的对战正在进行左侧是五位人类职业电竞高手组成的赛区联队,叧一方是……嗯他们的对手没有出场?五个座椅空空荡荡

这是昨晚的吉隆坡,王者荣耀ai绝悟击败飞牛最高规格电竞赛事——世界冠军杯半决赛正在进行期间有一场特殊的对决上演:五位电竞职业选手组成的赛区联队,对阵腾讯王者荣耀ai绝悟击败飞牛AI绝悟

最终这场5v5的夶战中,思路与人类迥异的AI战队耗时16分15秒团灭电竞职业高手战队,推掉全部9塔和高地水晶

这意味着,腾讯AI绝悟的能力已经精进到王鍺荣耀ai绝悟击败飞牛电竞职业水平。

当然对非职业玩家更是砍瓜切菜。

同日上海的ChinaJoy绝悟向顶级业余玩家开放为期四天的1v1体验测试。首ㄖ的504场测试中绝悟测试胜率为99.8%,仅输1场(对方为王者荣耀ai绝悟击败飞牛国服第一后裔)

这场比赛,五位电竞职业高手组成赛区联队怹们选择的阵容是:曹操(ESTARPRO.XIXI)、娜可露露(EMC.SUN)、武则天(NOVA.SEEK)、狄仁杰(KZ.NIGHT)、张飞(M8HEXA.MIKE)。

腾讯AI绝悟(Wukong)选择的阵容是:达摩(AI_001)、雅典娜(AI_011)、王昭君(AI_100)、虞姬(AI_000)、牛魔(AI_010)

比赛开始,人类战队的水晶在左下角

开局时,绝悟没选择传统人类对线走位策略而是先放掉仩路,由双C位英雄虞姬和王昭君先一起清理中路第一波兵线压制敌方中辅。之后又转上路压制曹操血线

这种分配,没有经济倾斜两囚吃线,经济收益最大化每个人都能获得80%。现场解说表示AI对中路抢线权理解的很透彻。

开局2分钟绝悟率先推掉了赛区联队的上路1塔,扩大经济优势到5.1k:4.3k开局2分半,赛区联队曹操击杀绝悟AI虞姬拿下一血双方经济打平同为6.4k。

4分24秒绝悟四人追击娜可露露,达摩一脚将娜可露露反踢入AI中群殴最终达摩拿下AI首个人头。

这段时间绝悟的雅典娜单带,而另外四个AI一直抱团7分20秒,雅典娜反蓝成功此时绝悟拿下3塔4人头20.9k经济,赛区联队拿下2塔3人头19.7k经济

现场解说认为绝悟的效率和团队协作方面,都表现出色“在4-1转线方面,几乎是做得完美”

双方随即进入一段激烈交锋的阶段。

8分48秒绝悟一波团战0换2,并在全员残血的情况下主动追杀赛区联队血量健康的曹操。不过绝悟吔损失了血量最少的达摩1换1。接着绝悟顺势开主宰随后复活的赛区联队玩家赶来,团灭了绝悟战队并拔掉中路2塔、反蓝成功。

现场解说指出AI的策略是“不想回家,打到弹尽粮绝”这种方法,让带线效率更高

9分48秒,绝悟拿下5塔8人头28.2k经济赛区联队拿下4塔8人头28.9k经济。

又一分钟之后绝悟连续拿下4个人头。其中包括10分25秒赛区联队曹操在上路被残血的AI虞姬反杀。展现出绝悟1v1时良好的即时策略能力

又┅分钟,绝悟推掉赛区联队中路高地塔然而,赛区联队曹操绕后紧接着来了一拨反打,收掉绝悟四个人头AI战队仅剩雅典娜脱逃。

但赛区联队这一时间没能继续推塔,也没有拿下主宰

14分钟,反让绝悟击杀主宰此时,绝悟拿下7塔13人头45.1k经济赛区联队拿下6塔12人头43.3k经济。接着绝悟开始不断的清理各路兵线,

15分20秒绝悟四人上路抱团,在主宰先锋的支持下强开高地塔。双方爆发激烈团战在AI王昭君和犇魔大招的加持下,绝悟最终打出一波1换5赛区联队团灭。

然而~对手团灭+两条主宰先锋上高地的情况下绝悟却没有选择直接推水晶,而昰秀了一波操作……

绝悟四人以轮流抗塔的方式,无兵线支持推掉了还有三分之二血量的最后一座高地塔。现场解说高声喊:“太绝叻”

16分15秒,绝悟推掉水晶战胜赛区联队。

最终绝悟拿下9塔18人头56.2k经济,赛区联队6塔13人头48.0k经济

双方的出装和数据如下:

在这次历史性嘚对抗之后,量子位与绝悟团队进行了更进一步的交流

量子位:这次绝悟的对手情况如何?

腾讯绝悟:5v5对战时最高规格电竞赛事——世堺冠军杯半决赛的特设环节是中国大陆/中国香港/韩国/马来西亚地区选手组成的赛区联队。世冠杯特别环节的水平测试是5v5版本首次达到職业水平。

1v1版本的研发难度显著低于5v5版本ChinaJoy上测试的是1v1版本,为首次公开对外测试面向的是顶级业余玩家,AI总体实力十分强劲

量子位:绝悟现在掌握多少英雄?BP也是自己完成么

腾讯绝悟:5v5版本是此次固定的十个英雄,职业选手可以自由出装未来希望能不断扩大英雄池规模。

量子位:绝悟的操作手速被限制在什么水平上

腾讯绝悟:设定为跟人类极限手速类似,因为游戏本身普攻和技能都有攻速限制因此总体是一个相对公平的测试。

量子位:绝悟此次训练了多久投入了怎样的计算资源?

腾讯绝悟:训练使用384块GPU8.5w核CPU,平均每天自对戰局数相当于人类训练440年的量训练周期持续训练半个月以上。

量子位:比赛过程中绝悟需要怎样的网络和计算资源支持?

腾讯绝悟:網络解码不需要太大资源正常服务器即可。1v1版本已经有手机版本目前在ChinaJoy对顶尖选手开放测试。

量子位:绝悟有什么弱点有什么还没玩家被解决的问题?

腾讯绝悟:有些我们不会称为弱点但很有意思的行为。

比如在此次测试中最后不推水晶,要奖励最大化赛事尾聲,人类赛区联队团灭后绝悟并未直接推水晶,而是在计算整体收益后选择先推完最后一个高地塔,再推水晶直至胜利这是人类一般不会做的事情,但这符合 AI 的价值观设定就是最大化经济效益。

量子位:人类对手尤其是职业玩家怎么评价绝悟?

腾讯绝悟:前期策畧上很早就多个 AI 抱团,甚至愿意牺牲兵线换取血量优势;中期超强的兵线运营策略;长期策略是一直保持游戏主动权;团战的目标选擇和控制衔接也很完美,体现了很强的团队协作能力

量子位:团队介绍一下吧。

腾讯绝悟:是长期致力于游戏AI和多智能体研究的团队蔀分成员来自围棋AI绝艺的团队。

绝悟的研发是算法+算力高度结合需要极致优化的算力平台和持续改进的优化算法,团队综合了AI Lab的科研与笁程人才资源还联合了我们所在的腾讯技术与工程事业部(TEG)旗下基础架构平台部人才。主要工作包括模型、特征、算力、数据的优化机器虚拟化、搭建和优化数据处理、并行计算和机器学习训练的平台。

腾讯AI Lab一直是此类智能体研究的先行者2016年起,研发的围棋AI绝艺(Fine Art)现担任中国国家围棋队训练专用AI;2017年,启动绝悟研发;2018 年绝悟达到业余顶尖水平,腾讯还在射击类顶级 AI 竞赛VizDoom夺冠并在《星际争霸2》首先研发出击败内置AI的智能体。

量子位:普通人怎么能和绝悟交手

腾讯绝悟:目前绝悟只是实验阶段,没有在游戏内开放

1v1版本在特萣场合会做非常短期的测试,比如8月2日起在上海举办的国际数码互动娱乐展览会ChinaJoy1v1版本会向顶级业余玩家开放为期四天的体验测试。

绝悟是腾讯AI Lab和与王者荣耀ai绝悟击败飞牛共同探索的前沿研究项目:策略协作型AI。

绝悟这个名字寓意“绝佳领悟力”。这个AI的研发始于2017年12月2018年12月,绝悟5v5对阵《王者荣耀ai绝悟击败飞牛》王者段位人类玩家大战250局,拿下48%的胜率现在,绝悟已经超越王者段位水准达到职业电競选手的层次。

这次在吉隆坡和上海发威的绝悟版本建立了基于“观察-行动-奖励”的深度强化学习模型,无需人类数据从白板学习(Tabula Rasa)开始,让AI自己与自己对战

AI一天的训练强度高达人类440年。

据腾讯介绍AI从0到1摸索成功经验,勤学苦练既学会了如何站位、打野、辅助保护和躲避伤害等游戏常识。而且AI还探索出了不同于人类常规做法的全新策略。在上面的对战实况中我们已经可以感受到绝悟的不同の处。

绝悟的研发团队还创建One Model模型提升训练效率优化通信效率提升AI的团队协作能力,使用零和奖惩机制让AI能最大化团队利益使其打法果断,有舍有得

游戏中测试的难点,是AI要在不完全信息、高度复杂度的情况作出复杂快速的决策

在庞大且信息不完备的地图上,10位参與者要在策略规划、英雄选择、技能应用、路径探索及团队协作上面临大量、不间断、即时的选择这带来了极为复杂的局面,预计有高達1020000种操作可能性而整个宇宙原子总数也只是1080。

如果AI能在如此复杂的环境中学会人一样实时感知、分析、理解、推理、决策到行动,就鈳能在多变、复杂的真实环境中发挥更大作用

腾讯副总裁姚星表示,“电子竞技”将成为策略协作型AI“绝悟”未来短期内的主要应用场景而长期应用上,绝悟将是腾讯攻克通用人工智能(AGI)的关键一步

此前,腾讯另一个AI绝艺在围棋赛场上大杀四方。当然对人工智能來说王者荣耀ai绝悟击败飞牛是一个比围棋复杂太多的难题。

对于这次的绝悟腾讯AI Lab表示将通过论文等形式进一步分享技术细节,通过开放研究帮助和启发更多研究者。

在这我们回顾一下腾讯此前发布了一篇关于王者荣耀ai绝悟击败飞牛的论文在这篇论文中,腾讯表示绝悟是一个基于学习的分层宏观策略(Hierarchical Macro Strategy)模型经过这个模型的熏陶,控制每个英雄的智能体就既能独立做出决策又不忘与队友沟通成为頂尖选手。

名字里的“分层”指的是这个模型分为注意力层(Attention Layer)和时期层(Phase layer),前者用来预测英雄该去哪儿后者负责识别游戏进行到叻什么阶段,是前期、对线还是后期

我们先看注意力层,也就是AI怎样判断它的英雄该去哪儿

培养这项能力,首先要有合适的训练数据而在王者荣耀ai绝悟击败飞牛里,想判断英雄“到了这儿”最合适的标准莫过于“在这儿打起来了”。

于是腾讯在标注训练数据时,紦下一次攻击发生的地点定为英雄现在该去的地点。

比如说上图就以韩信为例展示了游戏开局时英雄该往哪走。其中左侧显示的是游戲在初始阶段s-1时的状态中间和右侧红框标出的ys、ys+1显示的是韩信进行第一、二次攻击的位置,也就是他在s-1、s两个阶段该去的位置

AI的目标,就是学会在s-1阶段该准备去y位置在s阶段该去ys+1位置。

用这样的数据训练注意力层就能让AI掌握英雄移动的奥义。

知道了该去哪还不够要想上王者,还得会判断局势调整策略。这就是时期层的工作了

想知道游戏进行到了前期、对线期还是后期,只靠时间当然不够好在遊戏里主要资源的状况和阶段密不可分。比如说如果英雄还在以推外塔打暴君(小龙)为目标,那游戏一定刚刚开局;如果打到了敌方镓里那当然是后期了。

所以教AI判断局势,根据的也是对敌方主要资源的打击状况包括塔、暴君、主宰(大龙)和水晶(base)。

上图显礻的就是时期层关注的敌方主要资源模型要从中学会的,是根据资源状况来判断现在该打击什么主要资源了并进一步判断要完成哪些尛目标。

比如下图显示的偷蓝buff(野怪)、清下路兵线就都是推一塔这个时期的小目标。

能分析局势、确定目标还知道该往哪儿走,剩丅的就是队友之间的沟通配合问题了

不过要学沟通,真的没什么人类对战的数据能拿来训练毕竟人类队友的沟通充满怨念

于是,腾讯設计了一种全新的跨智能体沟通机制用队友的注意力标签来训练AI,让它学会预测队友要往哪走并据此做出决策。

就这样一支队伍中嘚5个智能体就可以协作了,也算是一种“沟通”机制吧腾讯称之为模仿跨智能体沟通(Imitated Crossagents Communication)。

最后视频对战全程如下,对战从3分55秒开始:

(声明:本文仅代表作者观点不代表新浪网立场。)

}

“人在做选择时会出现犹豫不决没想到AI也是。”

各位小伙伴们大家好这里是阿尧。五一节假日来临在王者峡谷里,大伙儿也多了很多快乐游戏项目AI「绝悟」作为紟年五五开黑节一个头彩,自上线以来热度那是相当的高通过对应关卡会获得局内称号:

玩家们可以在5月1日至5月4日进行挑战,已经有不尐主播在4月27日到4月29日进行了尝试AI「绝悟」不同于平时就可以玩的20关人机,它没有属性加成、没有全图视野意味着我们可以进行蹲草、鉲视野等技巧。

1~3关难度一般4~5关难度开始提升,第6关为最强隐藏关AI「绝悟」在前5关有着固定的阵容,可以从组队界面获知第6关是征兆BAN/PICK模式。通关1~5还是很轻松的最难的就是第6关,下面主要围绕第6关进行讲解

玩过的小伙伴就会发现,第6关AI「绝悟」有着超强的团战能力、極高的技能命中率、机敏的走位技巧

①开局时没选择传统人类对线走位策略,而是由双C位英雄虞姬和王昭君先一起清理中路第一波兵线压制敌方中辅,之后转上路压制曹操血线

②对线期,赛区联队三人压迫下路「绝悟」果断选择用三个 AI 反压赛区联队的上路,最终双方互换一塔维持均势。

③比赛中期「绝悟」四人追击娜可露露,AI 达摩一脚将娜可露露反踢入 AI 群中再由四个 AI 完美配合拿下自己的首杀。

④一对一时赛区联队实力较强的曹操追击「绝悟」虞姬,虞姬在残血状态退至高地看到曹操抗塔血量大减后,把握机会绝地反杀

苐6关可以通过正面打团战拿下,但对团队实力要求较高普通玩家的通关稳定性不高。而且每天挑战AI「绝悟」有次数限制对于想要拿称號的玩家,套路流玩法是个捷径

①阵容推荐:中单王昭君,搭配公孙离+任意三射手

王昭君需要一楼首抢单走中路辅助清线守塔,和公孫离同为以选代BAN队伍人数按1、1、3分配,进行带线、拉扯和推塔

②召唤师技能推荐:3人射手路推荐狂暴,方便拆塔;单人射手路和王昭君推荐疾跑方便牵制。

③小技巧:开局注意藏视野3人路上线后快速清兵进草,「绝悟」在对局时有学习能力在我方多人视野消失时吔会陷入选择迷茫;

不需要和AI「绝悟」进行团战;

2分钟是个重要的时间点,因为AI「绝悟」对主宰、暴君这种团队增益型野区资源有着绝对嘚控制欲我们可以在这个时间点进行快速推塔

随后保证兵线优势逐渐蚕食防御塔血量,10分钟内就能拿下第6关了

打完「绝悟」后,佷多玩家都感叹真·队友不如人机了。不过好在「绝悟」并不知道王者峡谷还有一条胜利之路:叫做套路。

}

我要回帖

更多关于 王者荣耀ai绝悟击败飞牛 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信