腾讯游戏开发精粹Ⅱ
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

3.6 总结

本章首先介绍了常规赛车AI的赛道表示和行驶控制方法,引出了该模型下的调参问题,并提出了遗传算法进行调参的解决方案;然后分别介绍了监督学习和强化学习的基础概念和原理,并对这两个方案面临的问题与挑战进行了简单分析。监督学习和强化学习都是机器学习的方法,训练出来的神经网络模型对于大部分研发团队来说是一个黑盒,无法对里面进行精细化控制,较难满足各种应用场景。此外,游戏逻辑变更或新增额外功能,都可能导致训练出来的模型失效,需要重新建模训练。因此,建议在游戏项目初期选用传统方法搭建基础的游戏AI,在核心玩法稳定的情况下再尝试机器学习的方法。但在核心玩法复杂的竞技游戏中,用传统方法开发高水平的AI是件非常困难的事情,所以机器学习仍是一种非常不错的解决方案。强化学习是学术界在游戏AI研究方面热门的方向之一,随着技术的提升和推广,会在越来越多的游戏中落地,提高行业水平。这些超高水平的游戏AI研发技术可以给游戏体验和玩法探索带来更多的可能性。


[1] RABIN S. Game AI Pro: Collected Wisdom of Game AI Professionals[M]. CRC Press, US, 2013.

[2] A. E. EIBEN J E S. Introduction to Evolutionary Computing[M]. Springer, US, 2015.

[3] STUART RUSSELL P N. Artificial Intelligence: A Modern Approach(3rd)[M].Prentice Hall, US, 2010.

[4] SUTTON R S,BARTO A G. Reinforcement learning: An introduction[M]. MIT press, US, 2018.

[5] SILVER D, HUANG A,MADDISON C J, et al. Mastering the Game of Go with Deep Neural Networks and Tree Search[J]. Nature, 2016, 529,484-484.