更具有感情色彩的诗歌生成模型①

2020-05-22 04:45廖荣凡沈希忠
计算机系统应用 2020年5期
关键词:卷积语义对联

廖荣凡,沈希忠,刘 爽

(上海应用技术大学 电子信息工程系,上海 201418)

诗歌是一种优美的语言形式,诗以其意象组合和语言韵律给人带来独特的审美体验.五言绝句是我国传统文学的结晶有着很高的文学和艺术价值.一方面绝句诗歌本身有严格的对仗和格律要求,诗人写作时应仔细推敲每一个字的使用,以最精炼的文字表达出最细腻的情感,另一方面这种结构规则含义丰富的诗歌形式,为计算机理解人类语言提供了良好的范本.近年来有越来越多的学者开始使用计算机模拟诗歌的规则和诗人的写作方式来生成主题明确、语言通畅的绝句诗.这些工作对于计算机理解人类语言和思维都有着积极的探索意义.

五言律诗最基本的格律要求是:重音位置的字平仄相对.平仄律是六朝及隋唐诗人根据当时的语言形态和审美观念不断探索而形成的诗体规范[1].绝句中基本的对仗要求是:诗歌上下两句对应位置动词对动词、名词对名词.古代诗人可以凭借对格律的运用和文字的把控即兴赋诗而浑然天成,如李白《将进酒》“呼儿将出换美酒,与尔共消万古愁”,曹植七步成诗“本是同根生,相煎何太急”.这对于计算机自动生成诗歌的启发是我们可以更加关注诗歌语言文字本身的搭配关系,在诗句之间加入对联的规则,以增强诗歌语言的韵律和感情色彩.

目前将文字向量化的算法可以捕捉到文字间细腻的语法和语义关系[2,3],含义相近的字在向量空间中的分布也更相近.词向量的表达方便了句子建模,Zhang等[4]使用卷积神经网络提取语句在不同层次上的语义和模式特征,进行句子间的语义匹配.这可以看作是使用卷积神经网络建模句子的语义表征.循环神经网络在语音分析和文本翻译上的表现证明它可以很好的提取和记忆输入信息前后之间的联系[5].

受到二维卷积神经网络在图像处理应用中的启发,我们创新性地将一维卷积网络应用到绝句诗歌的生成当中,提出了一种更具有感情色彩的诗歌生成模型.

我们的诗歌生成模型由语义模型和文字规则模型构成.语义模型根据上句(以句号分句,逗号分隔的子句为半句)的输入预测下半句的输出,以增加诗歌主题和上下文的连贯性.文字规则模型根据语义模型输出的前半句,预测输出的后半句,使诗句文字在感情色彩上和主题一致.语义模型和文字规则模型共同完成一首诗歌的生成.

具体的语义模型由一维卷积网络和双向循环网络构成,一维卷积网络用于提取诗句的抽象语义特征,双向循环网络用于记忆语义特征之间的结构关系;文字规则模型由词嵌入网络和带注意力机制的编码解码器构成,用于学习诗歌文字的对仗关系和文字在高维空间的结构关系.

1 相关工作

关于诗歌自动生成的研究已经有了几十年的历史,早期的诗歌生成基于规则和模板[6,7]之后基于统计机器学习算法的模型被用到了诗歌生成当中如SMT(Statistical Machine Translation)[8],文献[9]设计了一种基于短语的统计机器翻译模型,以前一句诗歌生成后一句诗歌.文献[10]提出以统计机器翻译为理论基础,将格律诗的上下句关系映射为统计翻译模型中源语言与目标语言的关系设计了融入诗词领域知识的统计机器翻译模型用于诗歌生成.当前神经网络算法在诗歌自动生成任务中应用广泛,体现出了明显的优势.现在大部分诗歌生成基于循环神经网络RNN (Recurrent Neural Network).Zhang 等[4]最早将单一的循环网络RNN 应用到绝句诗的生成当中,Zhang 等在词嵌入的基础上使用语句卷积模型提取上下文特征向量,捕捉诗歌的上下文信息,然后使用RNN 依据上下文向量和之前生成的诗句得出下一句诗.但是早期的RNN和他们使用的卷积模型较为简单,为了提升语言的连贯性他们还引入了额外的SML (Statistical Machine Learning)特征和N-gram 语言模型.随后Yan 等[11]等提出基于RNN 的编码解码模型ipoet,采用循环迭代的方式使模型每一次的输出作为下一次的输入,模仿诗人创作反复打磨的过程.Wang 等[12]采用Planning Model 对诗歌的主题进行分割,诗歌的每一行对应一个子主题,然后诗句在子主题的指引下由编码解码网络自动生成,作者还调整了编码网络的结构使编码器可以编码子主题和之前生成的诗句,以生成主题连贯的诗歌.文献[13]中,作者将诗歌生成问题看成序列到序列的学习问题,使用带注意力机制的编码解码模型学习字符间的联系和输入输出诗句间的相关性,并采用了词生成句,句生成句,段落生成句3 种独立的诗歌生成方式.文献[14]作者认为神经网络的概率本质虽然可以学习到诗歌中出现频率较高的语言模式生成语句通顺的诗歌但它严重忽视了诗歌创新性的美学意义,进而提出了记忆增强的神经模型(memory-augmented neural model)结合带注意力机制的神经网络和诗歌特征映射模型生成有一定创新性的诗歌.文献[15]作者提出诗歌生成的动态记忆模型分别独立保存写作的主题向量作为主要信息,主题向量会随着诗句的生成进行更新,在生成每一行诗句时模型读取最相关的主题向量指导生成当前诗句.此外作者还引用了风格嵌入控制来生成语言风格不同的诗歌.

上述的诗歌自动生成模型多把重点放在诗歌的主题控制与文字的流畅性上,我们的模型将重点放在诗歌语言文字的本身上,以获得语言的流畅性、主题的一致性和更强的感情色彩.

2 模型

诗歌生成模型由语义模型和文字规则模型构成,在诗歌语料库和对联语料库上联合完成训练.模型可以根据输入的文字描述生成诗歌,但为方便对比不同模型生成的诗句,实验中采用50 条给定诗歌的首半句(以“,”分隔半句;“.”分隔一句)作为输入.

诗歌生成方法如图1所示,给定半句诗歌S11作为输入,由文字规则模型WM (Word Model)生成半句诗S12.S11,S12为模型生成诗歌的第一句.然后将S11,S12输入语义模型SM (Semantic Model)再生成半句诗S21.之后将S21作为下一句诗的给定输入,生成S22.完整的诗歌有两句组成“S11,S12,S21,S22”.

图1 模型方法图

在生成一句诗歌的过程中,语义模型SM 在给定诗句(上文)C后,输出下文m个汉字W,记W={w1,w2,···,wm},形式化的表示为:

文字规则模型WM 根据给定的汉字W,计算生成下文m个字的概率,记S={wm+1,wm+2,···,wm+3}为这m个字的特定排列,形式化表达为:

模型整体可以看作在给定条件下,计算生成诗句S的概率,如式(3).给定的条件为:写作描述C和模型生成的前m个字.

诗歌生成的问题转换为最大化这个条件概率的问题.

2.1 语义模型

2.1.1 诗歌数据处理

首先对包含30 000 首五言诗的数据集进行字频统计,统计每一个使用到的汉字出现的次数.考虑到古汉语和现代汉语的不同,为生成更通俗易懂的诗句,我们过滤掉频次少于15 字和所有包含这些字的诗歌,保留18 000 首诗歌和2379 个汉字用于模型训练.然后建立字典,将保留的每一个汉字映射到一个整数.最后构建训练数据集T={(x1,y1),(x2,y2),···,(xN,yN)},其中xi∈R12,(1≤i≤N)表示每一首诗每一句的整数映射向量,yi∈R6,(1≤i≤N)表 示对应于xi所表示诗句之后的半句诗歌的整数映射向量.例如,处理“白日依山尽,黄河入海流.“查询每一个字对应的整数索引,编码诗句为[12,24,43,1785,456,1,45,79,55,28,56,2],则相应的xi=[12,24,43,1785,456,1,45,79,55,28,56,2]T,yi=[45,79,55,28,56,2]T,N表示训练数据集的总样本数.

2.1.2 模型结构

使用Tensorflow1.13.0 中的Keras API 搭建神经网络模型.模型的输入x∈R12为12 维的列向量,经过两次步长为1,卷积核为(3,·)的一维卷积网络处理后将输入向量x转化为特征张量T∈R8×128用于表征诗句的语义信息.每次一维卷积的数学描述为:

其中,σ (·)表 示非线性函数,TiC,j表示卷积特征矩阵TC的第i行,第j列元素;Til∈R1×N表示输入张量第i行的N个元素;∈R1×N表示第j个卷积核第k行的N个元素,这里f∈RK×N.

将卷积后的特征张量Tc输入双向LSTM(Long Short-Time Memory)模型[16]记忆学习诗歌抽象语义特征.LSTM 的数学描述[17]可表达为:

其中,σ (·)表 示非线性函数,符号◦ 表示向量对应元素间的乘法,ht表示输出向量,ct表示记忆向量xt表示输入向量,w表示权重矩阵,b表示偏置向量.

双向LSTM 将数据按时间步的顺序过程和倒序过程分别输入到两个LSTM 模型中,最后将两个模型的输出向量ht拼接在一起.

LSTM 网络后连接两层全连接层,用于预测模型的输出∈R1×m,语言记忆网络的损失函数为均方误差函数:

2.2 文字规则模型

2.2.1 对联数据处理

针对对联数据集构建字典,将数据集中的每一个字映射到一个特定的整数,构建训练数据集T={(x1,y1,t1),(x2,y2,t2),···,(xN,yN,tN)} 其 中xi(1≤i≤N)表示每一首对联上联汉字的整数映射向量,yi(1≤i≤N)表示每一首对联下联汉字的整数映射向量,ti(1≤i≤N)由yi的字符串开头加入一个特定标记字符形成,N表示训练数据集的总样本数.

2.2.2 模型结构

模型先使用词嵌入层将输入的文字序列映射到高维的向量空间中,拓展文字序列向量的表征能力.

将对联字典中汉字对应的整数编码wi使用Word2Vector 方法嵌入到E维的向量空间中.令V表示词典的大小,L∈RE×|V|表示字符的词向量矩阵,它的列对应着字符嵌入的空间维度.e(wk)∈R|V|,ei=0,i≠k,ek=1,ei表示e(wk)中的各元素.即e(wk)代表第k个字符的独热向量表示,则输入m个字符的序列w1,w2,···,wm经过词嵌入后可以表示为:

其中,Te表 示m个字符的嵌入张量,(Te)T∈RE×m,Te∈Rm×E.

对输入的词嵌入张量,模型采用带注意力机制的序列到序列结构,由编码器(ENLSTM)对输入张量编码提取特征向量后由解码器(DELSTM)结合注意力机制预测输出张量.其运算过程可以描述为[18]:

编码器接受上联输入的词嵌入张量xt和上一时间步编码器(ENLSTM)的隐藏层输出ht−1,计算当前时间点的隐藏层输出ht.如式(13):

解码器接受下联输入的词嵌入张量yt和上一时间步解码器(DELSTM)的隐藏层输出st−1,计算当前时间点的隐藏层输出st,如式(14):

由编码器和解码器的隐藏层输出ht、st计算一个权重分数和编码器每一个时间步隐藏层输出的权重,如式(15)、式(16):

由编码器每一个时间步隐藏层输出的加权平均生成上下文向量ci.

将上下文向量ct与解码器隐藏层的输出st拼接起来计算模型输出的概率:

模型的目标函数为交叉熵损失函数:

其中,T为训练数据集.

3 实验

模型在30 000 首五言诗歌数据集和50 000 首对联数据集上进行训练.我们使用3 个模型进行诗歌生成的比较,一是类似Yan 等[11]的LSTM 模型;二是类似Wang 等[19]的注意力模型,三是我们的诗歌生成模型.3 个模型分别在相同测试集上生成50 首诗歌,用于测评.

3.1 评价标准

参考文献[2]我们使用BLEU[20]作为诗歌生成模型的评估方法.这种方法在评估时需要给出参考文本,对于如何获取参考文本,He 等[8]的思想是如果两句诗有相同的主题,那这两句诗的后两句诗可以相互参考.我们模型的诗歌生成基于给定诗歌第一句的前半句,所以自然地我们选择给定诗句的全诗作为BLEU 评分的参考文本.

因为诗歌这种特殊形式的文本其美学价值和给人的情感体验有较强的主观性,所以我们也设计了人工评判环节,为使评判有较强的客观性,选择4 条评判标准:1)对仗,模型生成诗歌句间的词语是不是相互对仗;2)韵律,模型生成的诗歌是不是按五言律诗的规则平仄相对;3)意象,诗歌意象是诗歌情感意义的主要载体,这里考察诗歌中是否包含常见的文学意象,如春风、秋月、旧竹、寒梅等;4)连贯性,诗歌整体上下句表达的情感是否流畅或一致.每条标准按1~5 分评分.

3.2 评估结果

使用二元BLEU 对上述3 个模型生成诗句评分,每个模型根据给定的50 条输入生成50 首诗歌,50 首诗歌的平均BLEU 得分如表1所示.

表1 模型BLEU

每个模型BLEU 得分前5 的诗句分别由表2,表3,表4所示.

表2 双层LSTM 模型

表3 注意力模型

表4 本文模型

由实验结果可以发现虽然双层LSTM 模型可以提取诗歌基本的结构特征,但它生成的诗歌在BLEU 评分中明显不如注意力模型和本文模型,而且主题不明显.这里需要指出的是,双层LSTM 模型只在五言诗歌的数据集上进行训练,而后两个模型在诗歌数据集和对联数据集上联合训练,这种对比可能对双层LSTM模型有些不公平,但是在尽我们努力所翻阅的文献中,前人的诗歌生成工作只利用了诗歌数据集,而没有加入对联数据集来加强学习诗歌文字间的对仗关系,所以这里对于基线模型双层LSTM,我们只使用了诗歌数据集对其进行训练.

BLEU 评分考察更多的是文字之间的相关性,有较高得分的诗句不一定有诗歌的美感,明显的主题和鲜明的情感色彩,所以我们根据上文提到的诗歌评分标准,邀请8 位来自文学专业的同学对每个模型生成的50 首诗歌打分.每个模型生成诗歌平均得分情况如表5所示.

表5 人工评估得分

3.3 实验分析

在诗歌和对联数据集上训练的注意力模型和本文的模型可以较好的表现诗歌的对仗和韵律,一方面是因为注意力机制可以更好的关注诗歌对应位置的字符关系,另一方面是因为对联本身有较强的韵律,字词之间也有明显的对应关系.如注意力模型生成的诗句“大漠孤烟直,长城满水流.秋景复秋风,春风复夜阑.”,“大漠”对“长城”,“孤烟直”对“满水流”,“秋景”对“春风”,“秋风”对“夜阑”,明显的对仗关系和相似的意象组合可以较好地表现出诗歌的美感和韵律.又如“饮马渡秋水,幽林出晚风.秋景湿人衣,春风入画屏.”、“海上生明月,江中出晚风.江水向秋波,山阴复夜色”,但注意力模型的缺点是一方面很多相似的意象组合限制了诗歌主题的丰富性,如秋景和春风,秋波和夜色,明月和晚风常常相对;一方面不相似的意象组合也使诗歌主题损失了整体性,如上句“大漠长城”,下句“秋景春风”.意境的破坏同时也弱化了诗歌的情感表达.

本文模型使用一维卷积神经网络将上句诗歌的12 个字符依次输入到网络中预测下文的输出,将文字生成看成特殊的时间序列预测问题.我们相信一维卷积网络的卷积核可以像词嵌入网络一样提取语言的语义结构并结合LSTM 模型构成具有一定语言记忆功能的模型.如在生成的诗歌“树树皆秋色,花花亦未央.离惜堤竹旧,春风草未长.”中,上句“未央”与下句“离惜”相呼应使诗歌主题更一致,更有美感,同时也使诗歌有了更鲜明的情感色彩又如:“迟日江山丽,秋风草树闲.听晴司可喜,看子向陵阑.”上句“日”与下句“晴”相呼应;“浮云游子意,清月入人心.初晴弥可喜,更与故人心.”上句“清月”与下句“初晴”相呼应,上句“游子意”与下句“故人心”相呼应通过实验的对比分析,我们发现在诗歌和对联数据集上联合训练的模型可以较好地提升生成诗歌对仗和韵律的效果,同时也具有更强的语言表现力和诗歌的美感.我们的诗歌生成模型在提高诗歌生成的对仗和韵律效果的同时也改善了主题生成的一致性.一致的主题,流畅的语言和对仗的意象使模型生成的诗歌更具有更强得感情色彩.

4 总结

我们的语义模型创新性地提出使用一维卷积网络和长短时记忆网络(LSTM)提取诗句的语义信息,增强诗句之间主题的一致性和情感的相关性.文字规则模型为带注意力机制的编码解码模型,用于学习诗歌文字的韵律和字词的对仗关系.模型在诗歌和对联数据集上联合训练.实验结果表明我们的模型取得了预期的效果,可以较好地呈现出诗歌的语言特征和情感色彩,使机器生成的诗歌有类似诗人即兴赋诗的美感和表现力.

猜你喜欢
卷积语义对联
基于全卷积神经网络的猪背膘厚快速准确测定
真实场景水下语义分割方法及数据集
一种基于卷积神经网络的地磁基准图构建方法
基于3D-Winograd的快速卷积算法设计及FPGA实现
一种并行不对称空洞卷积模块①
“吃+NP”的语义生成机制研究
汉语依凭介词的语义范畴
对联知识小问答
自对在对联中的作用
我怎样教写对联