时间:2024-05-04
吴宇晗 朱峙成 王荣杰 刘佳玮 陈丽芳
摘 要:为了使游戏玩家从拥有固定文本的文字游戏中体验新鲜感,提出采用深度学习Seq2Seq模型,根据已有文本产生新的符合剧情的文本,增加游戏的趣味性和交互性。本文构建深度学习Seq2Seq模型,并编写Python代码实现了文本生成模型的仿真,对生成词与原文本之间的评价标准进行了对比分析,以自创的游戏验证了该方法的有效性。该论文的研究成果,是对自适应文本生成系统研究的有益尝试和补充,具有一定的应用价值。
关键词: Seq2Seq;LSTM 神经网络;深度学习;文本生成
【Abstract】 In order to make game players experience novelty from text games with fixed-text, a deep learning Seq2Seq model is put forward, which can generate new scenario text based on existing text to increase the interesting and interactive nature of the game. The paper constructs a deep learning Seq2Seq model and writes Python code to simulate the text generation model. Besides, the paper also compares and analyzes the evaluation criteria between the generated words and the original text. The effectiveness of the method is verified by the self-created game. The research result is a beneficial trial and supplement to the research of adaptive text generation system , which has certain application value.
【Key words】 Seq2Seq; LSTM neural network; deep learning; text generation
0 引 言
互联网的飞速发展使人类的学习、工作、生活更加丰富多彩,人们在忙碌的学习工作之余,就有相当一部分年轻人会将玩游戏作为娱乐休闲方式之一。在数以千计的手游中,大多存在着剧情重复、模式既成、套路固定等缺乏新意等问题,玩家逐渐摸索出一些固有套路后,就会对相似的游戏失去兴趣,虽然一些游戏进行了创新尝试,在游戏内部添加随机元素,但实际上仍然是程序事先设计好的“随机性”,因而也削弱了游戏的新奇挑战性。因此,如何根据游戏剧情、用户偏好、实时行为等多重属性,综合推出个性化服务,实现由面到点的智能精准推荐,实时生成新的剧情,使用户能真正体验到“不可预期”带来的游玩乐趣,是目前游戏设计中值得深入探讨的焦点问题。
鉴于此,本文提出基于深度学习的自适应剧情生成系统:以大数据、云计算、深度学习等技术作为理论支撑,运用网络爬虫获取原生故事,利用文本处理技术来处理爬取数据,利用深度学习自生成全新的故事,以游戏为窗口展现生成的故事。当用户开始游戏时,依据用户实时的行为建立用户画像,利用智能推荐技术根据所建立的用户画像产生剧情,用户每次对剧情的选择会影响用户画像的改变,从而变换出不同的剧情。整体构思如图1所示。
研究中,故事生成器如何产生新文本是整个技术的关键。本文拟利用深度学习Seq2Seq模型,根据已有文本数据进行新文本生成训练,从而产生新的剧情,实现游戏的自适应剧情生成系统设计,从游戏开发的角度,拓展了设计思维、提供了建模手段,是对游戏设计的一种有益尝试和补充。
1 理论基础
1.1 智能推荐算法
基于协同过滤的推荐算法是目前国内外学者研究最多、在各个领域使用最广泛的推荐算法。其最大的优势是对于所要进行推荐的对象没有特殊的种类要求,能够使用与文本同样的方式處理音乐、电影等各类以非结构化形式表示的对象[1]。Yoda综合了基于内容的过滤和协同过滤推荐两种技术的优点[2]。根据个性的游戏用户画像来准确地智能推荐相应的游戏剧情,给予玩家独特的游戏感受。
1.2 深度学习
近年来,深度学习中的递归自编码方法已成功应用于情感分析问题。文献[3]提出采用递归自编码方法来解决较为复杂的情感分析问题。文献[4]提出一种新颖的机器学习框架,是基于递归自编码方法对句子级别的情感分布的预测,从数据库中获取故事文本,并利用深度学习来判别故事的类,自动训练生成新颖的故事情节。对此可做研究论述如下。
1.2.1 长短时间记忆网络
长短时间记忆网络(LSTM)是一种基于递归神经网络模型(RNN)的改进,其原理如图2所示。由Hochreiter和Schmidhube于1997年提出[5]。LSTM由一组特殊的记忆模块单元替换递归神经网络的隐藏层神经元,这些模块可以记忆隐藏层的任意时间状态,从而解决RNN梯度消失等问题。当使用长短时间记忆模型进行相应数据反向传递时,序列数据在循环神经网络中会经过很长一段时间的学习,从而保证信息进行远距离传递,将误差保持在更为恒定的水平。
通常,长短时间记忆单元模块包括输入门、输出门、遗忘门和记忆单元。根据门用进行保存和调节存储单元和环境之间的相互作用,这样保证存储单元的状态从一个单元到另一个单元保持不变。LSTM网络通过递归方程更新网络单元,激活从输入x到输出y的映射[6]。
1.3 用户画像
Alan Cooper在早期就对用户个体画像进行了详细的分析,并在研究中强调人物角色这个概念,该概念主要是指一个创造出的虚拟用户[9]。对用户分析、画像,主要是为顾客打上标签,通过标签,让计算机认识了解一个人,方便信息处理。标签为研究者提供了一种把难以处理的信息进行量化的方法,使计算机能够对繁琐的信息进行程序化处理,根据玩家输入的信息,对玩家进行个性化分析,形成虚拟的用户画像,方便利用智能推荐获取独特的游戏剧情。
1.4 云服务
云服务也可以稱作为云模式服务,是以数据的存储和管理为主要核心任务的云计算系统[10]。主要用于存储原生故事以及数据交互,提供深度学习文本的服务,是游戏的一个核心部位。
2 文本预处理
文本彼此之间往往难以进行有效的计算,Word2vec提供一种比较好的解决思路。Word2vec实际上构建了一种映射关系,利用浅层的神经网络对文本进行训练以获得文本向量,本文采用此方式实现文本预处理。
3 模型构建
首先,输入所需要的文本T={(tk)}mk=1;设定最大训练次数maxiter、学习率η、新文本最大长度n、训练步长step等参数。然后,按照算法步骤进行训练,初始化网络权重、循环迭代训练参数、计算网络梯度、更新网络权重,直到达到最大的训练次数为止;最后,循环生成文本,返回S={(Sk)}nk=1,即训练结果。Seq2Seq算法的设计伪代码详见如下。
4.3 实验结果
自编小说所给的开始文本:“在新世纪的某处,一个村子里的能力觉醒仪式正在举行着,能力觉醒仪式在这里举行的时间或早或晚,这得看相关者的能力了,不是所有在新世纪的人都会有超能力”。本文模型产生新的文本:“墨泽说了,不过他还是自己人,好像没有伤到一个人,我也没有人家大,没有变解能力的。“嗯??你还是大步出去了。”“呃……你说的话不是,我们也不知道还是那个意外的事情,你怎么回事?”“你,你怎么还没有问题?我怎么会发现呢。”墨泽说道:“我还不是那么大”。
4.4 结果分析
经过对7万余字文本训练20 000次,循环输出生成新文本长度与原本的相似度,由图4可知,相似度是随着输出文本长度的增加而增加的,对于此文本来说,新文本长度为40~300字之间最为合适,在合适的评价标准区间,由此生成的新文本有一部分并不是很通顺,但已经达到了符合剧情的新文本产生方式。
建模仿真表明,采用深度学习的Seq2Seq模型,根据已有文本剧情产生新文本是可行的,给定的原始文本长度越长,效果越好,但需要找到一个合适的临界值,让文本产生更有趣的变化。目前,产生文本符合评价标准最低的是40个词,在今后研究中,将在词量的缩减上展开后续的实验仿真,使本模型能够适应各种不同游戏剧情生成,进一步提升性能。
5 结束语
本文提出利用深度学习Seq2Seq模型,根据已有文本数据进行新文本生成训练,从而产生新的剧情,实现游戏的自适应剧情生成系统设计,从游戏开发的角度,拓展了设计思维、提供了建模手段,是对游戏设计的一种有益尝试和补充。
参考文献
[1]石静.基于混合模式的个性化推荐系统的应用研究[D].武汉:武汉理工大学,2010.
[2]SHAHABI C, BANAEI-KASHANI F, CHEN YS, et al. Yoda: An accurate and scalable Web-based recommendation system[M]// BATINI C, GIUNCHIGLIA F, GIORGINI P, et al. Cooperative Information Systems. CoopIS 2001. Lecture Notes in Computer Science. Berlin/Heidelberg:Springer,2001,2172:418-432.
[3]FU Xianghua, LIU Wangwang, XU Yingying, et al. Combine HowNet lexicon to train phrase recursive autoencoder for sentence-level sentiment analysis[J]. Neurocomputing, 2017,241:18-27.
[4]SOCHER R, PENNINGTON J, ERIC H H, et al. Semi-supervised recursive autoencoders for predicting sentiment distributions [C]//Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, EMNLP. Edinburgh, UK:ACL, 2011:151-161.
[5]HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation,1997,9(8):1735-1780.
[6]李昭昱,艾芊,张宇帆,等.基于attention机制的LSTM神经网络超短期负荷预测方法[J].供用电,2019,36(1):17-22.
[7]王钧,张鹏,袁帅.基于股票预测的Seq2Seq RNN和LSTM模型比较[J].时代金融,2018(12):381-382,392.
[8]方旭,过弋,王祺,等.核心词修正的Seq2Seq短文摘要[J].计算机工程与设计,2018,39(12):3610-3615.
[9]KOBSA A. Genetic user modeling systems[J] .User Modeling and User Adapted Interactive, 2001 (11):49-63
[10]郭金婷. 云计算环境下图书馆云服务模式构建[D]. 大连:辽宁师范大学,2012
[11]李岩.基于深度学习的短文本分析与计算方法研究[D].北京:北京科技大学,2016.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!