使用 LSTM 智能作诗送新年祝福 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
MoModel
V2EX    机器学习

使用 LSTM 智能作诗送新年祝福

  •  
  •   MoModel 2019-01-31 17:58:51 +08:00 2694 次点击
    这是一个创建于 2444 天前的主题,其中的信息可能已经有所发展或是发生改变。

    LSTM 介绍

    序列化数据即每个样本和它之前的样本存在关联,前一数据和后一个数据有顺序关系。深度学习中有一个重要的分支是专门用来处理这样的数据的循环神经网络。循环神经网络广泛应用在自然语言处理领域(NLP),今天我们带你从一个实际的例子出发,介绍循环神经网络一个重要的改进算法模型-LSTM。本文章不对 LSTM 的原理进行深入,想详细了解 LSTM 可以参考这篇 [译] 理解 LSTM 网络。本文重点从古诗词自动生成的实例出发,一步一步带你从数据处理到模型搭建,再到训练出古诗词生成模型,最后实现从古诗词自动生成新春祝福诗词。

    数据处理

    我们使用 76748 首古诗词作为数据集,数据集下载链接,原始的古诗词的存储形式如下: image 我们可以看到原始的古诗词是文本符号的形式,无法直接进行机器学习,所以我们第一步需要把文本信息转换为数据形式,这种转换方式就叫词嵌入(word embedding),我们采用一种常用的词嵌套(word embedding)算法-Word2vec 对古诗词进行编码。关于 Word2Vec 这里不详细讲解,感兴趣可以参考 [NLP] 秒懂词向量 Word2vec 的本质。在词嵌套过程中,为了避免最终的分类数过于庞大,可以选择去掉出现频率较小的字,比如可以去掉只出现过一次的字。Word2vec 算法经过训练后会产生一个模型文件,我们就可以利用这个模型文件对古诗词文本进行词嵌套编码。

    经过第一步的处理已经把古诗词词语转换为可以机器学习建模的数字形式,因为我们采用 LSTM 算法进行古诗词生成,所以还需要构建输入到输出的映射处理。例如: “[长河落日圆]”作为 train_data,而相应的 train_label 就是“长河落日圆]]”,也就是 “[”->“长”,“长”->“河”,“河”->“落”,“落”->“日”,“日”->“圆”,“圆”->“]”,“]”->“]”,这样子先后顺序一一对相。这也是循环神经网络的一个重要的特征。 这里的“[”和“]”是开始符和结束符,用于生成古诗的开始与结束标记。

    总结一下数据处理的步骤:

    • 读取原始的古诗词文本,统计出所有不同的字,使用 Word2Vec 算法进行对应编码;
    • 对于每首诗,将每个字、标点都转换为字典中对应的编号,构成神经网络的输入数据 train_data ;
    • 将输入数据左移动构成输出标签 train_label ;

    经过数据处理后我们得到以下数据文件:

    • poems_edge_split.txt:原始古诗词文件,按行排列,每行为一首诗词;
    • vectors_poem.bin:利用 Word2Vec 训练好的词向量模型,以开头,按词频排列,去除低频词;
    • poem_ids.txt:按输入输出关系映射处理之后的语料库文件;
    • rhyme_words.txt: 押韵词存储,用于押韵诗的生成;

    在提供的源码中已经提供了以上四个数据文件放在 data 文件夹下,数据处理代码见 data_loader.py 文件,源码链接

    模型构建及训练

    这里我们使用 2 层的 LSTM 框架,每层有 128 个隐藏层节点,我们使用 tensorflow.nn 模块库来定义网络结构层,其中 RNNcell 是 tensorflow 中实现 RNN 的基本单元,是一个抽象类,在实际应用中多用 RNNcell 的实现子类 BasicRNNCell 或者 BasicLSTMCell,BasicGRUCell ;如果需要构建多层的 RNN,在 TensorFlow 中,可以使用 tf.nn.rnn_cell.MultiRNNCell 函数对 RNNCell 进行堆叠。模型网络的第一层要对输入数据进行 embedding,可以理解为数据的维度变换,经过两层 LSTM 后,接着 softMax 得到一个在全字典上的输出概率。 模型网络结构如下: image

    定义网络的类的程序代码如下:

     class CharRNNLM(object): def __init__(self, is_training, batch_size, vocab_size, w2v_model, hidden_size, max_grad_norm, embedding_size, num_layers, learning_rate, cell_type, dropout=0.0, input_dropout=0.0, infer=False): self.batch_size = batch_size self.hidden_size = hidden_size self.vocab_size = vocab_size self.max_grad_norm = max_grad_norm self.num_layers = num_layers self.embedding_size = embedding_size self.cell_type = cell_type self.dropout = dropout self.input_dropout = input_dropout self.w2v_model = w2v_model if embedding_size <= 0: self.input_size = vocab_size self.input_dropout = 0.0 else: self.input_size = embedding_size # 输入和输入定义 self.input_data = tf.placeholder(tf.int64, [self.batch_size, self.num_unrollings], name='inputs') self.targets = tf.placeholder(tf.int64, [self.batch_size, self.num_unrollings], name='targets') # 根据定义选择不同的循环神经网络内核单元 if self.cell_type == 'rnn': cell_fn = tf.nn.rnn_cell.BasicRNNCell elif self.cell_type == 'lstm': cell_fn = tf.nn.rnn_cell.LSTMCell elif self.cell_type == 'gru': cell_fn = tf.nn.rnn_cell.GRUCell params = dict() if self.cell_type == 'lstm': params['forget_bias'] = 1.0 cell = cell_fn(self.hidden_size, **params) cells = [cell] for i in range(self.num_layers-1): higher_layer_cell = cell_fn(self.hidden_size, **params) cells.append(higher_layer_cell) # 训练时是否进行 Dropout if is_training and self.dropout > 0: cells = [tf.nn.rnn_cell.DropoutWrapper(cell, output_keep_prob=1.0-self.dropout) for cell in cells] # 对 lstm 层进行堆叠 multi_cell = tf.nn.rnn_cell.MultiRNNCell(cells) # 定义网络模型初始状态 with tf.name_scope('initial_state'): self.zero_state = multi_cell.zero_state(self.batch_size, tf.float32) if self.cell_type == 'rnn' or self.cell_type == 'gru': self.initial_state = tuple( [tf.placeholder(tf.float32, [self.batch_size, multi_cell.state_size[idx]], 'initial_state_'+str(idx+1)) for idx in range(self.num_layers)]) elif self.cell_type == 'lstm': self.initial_state = tuple( [tf.nn.rnn_cell.LSTMStateTuple( tf.placeholder(tf.float32, [self.batch_size, multi_cell.state_size[idx][0]], 'initial_lstm_state_'+str(idx+1)), tf.placeholder(tf.float32, [self.batch_size, multi_cell.state_size[idx][1]], 'initial_lstm_state_'+str(idx+1))) for idx in range(self.num_layers)]) # 定义 embedding 层 with tf.name_scope('embedding_layer'): if embedding_size > 0: # self.embedding = tf.get_variable('embedding', [self.vocab_size, self.embedding_size]) self.embedding = tf.get_variable("word_embeddings", initializer=self.w2v_model.vectors.astype(np.float32)) else: self.embedding = tf.constant(np.eye(self.vocab_size), dtype=tf.float32) inputs = tf.nn.embedding_lookup(self.embedding, self.input_data) if is_training and self.input_dropout > 0: inputs = tf.nn.dropout(inputs, 1-self.input_dropout) # 创建每个切分通道网络层 with tf.name_scope('slice_inputs'): sliced_inputs = [tf.squeeze(input_, [1]) for input_ in tf.split( axis = 1, num_or_size_splits = self.num_unrollings, value = inputs)] outputs, final_state = tf.nn.static_rnn( cell = multi_cell, inputs = sliced_inputs, initial_state=self.initial_state) self.final_state = final_state # 数据变换层,把经过循环神经网络的数据拉伸降维 with tf.name_scope('flatten_outputs'): flat_outputs = tf.reshape(tf.concat(axis = 1, values = outputs), [-1, hidden_size]) with tf.name_scope('flatten_targets'): flat_targets = tf.reshape(tf.concat(axis = 1, values = self.targets), [-1]) # 定义 softmax 输出层 with tf.variable_scope('softmax') as sm_vs: softmax_w = tf.get_variable('softmax_w', [hidden_size, vocab_size]) softmax_b = tf.get_variable('softmax_b', [vocab_size]) self.logits = tf.matmul(flat_outputs, softmax_w) + softmax_b self.probs = tf.nn.softmax(self.logits) # 定义 loss 损失函数 with tf.name_scope('loss'): loss = tf.nn.sparse_softmax_cross_entropy_with_logits( logits = self.logits, labels = flat_targets) self.mean_loss = tf.reduce_mean(loss) # tensorBoard 损失函数可视化 with tf.name_scope('loss_montor'): count = tf.Variable(1.0, name='count') sum_mean_loss = tf.Variable(1.0, name='sum_mean_loss') self.reset_loss_mOnitor= tf.group(sum_mean_loss.assign(0.0), count.assign(0.0), name='reset_loss_monitor') self.update_loss_mOnitor= tf.group(sum_mean_loss.assign(sum_mean_loss+self.mean_loss), count.assign(count+1), name='update_loss_monitor') with tf.control_dependencies([self.update_loss_monitor]): self.average_loss = sum_mean_loss / count self.ppl = tf.exp(self.average_loss) average_loss_summary = tf.summary.scalar( name = 'average loss', tensor = self.average_loss) ppl_summary = tf.summary.scalar( name = 'perplexity', tensor = self.ppl) self.summaries = tf.summary.merge( inputs = [average_loss_summary, ppl_summary], name='loss_monitor') self.global_step = tf.get_variable('global_step', [], initializer=tf.constant_initializer(0.0)) self.learning_rate = tf.placeholder(tf.float32, [], name='learning_rate') if is_training: tvars = tf.trainable_variables() grads, _ = tf.clip_by_global_norm(tf.gradients(self.mean_loss, tvars), self.max_grad_norm) optimizer = tf.train.AdamOptimizer(self.learning_rate) self.train_op = optimizer.apply_gradients(zip(grads, tvars), global_step=self.global_step) 

    训练时可以定义 batch_size 的值,是否进行 dropout,为了结果的多样性,训练时在 softmax 输出层每次可以选择 topK 概率的字符作为输出。训练完成后可以使用 tensorboard 对网络结构和训练过程可视化展示。这里推荐大家一个在线人工智能建模平台momodel.cn,带有完整的 Python 和机器学习框架运行环境,并且有免费的 GPU 可以使用,大家可以训练的时候可以在这个平台上试一下。训练部分的代码和训练好的模型见链接

    诗词生成

    调用前面训练好的模型我们就可以实现一个古诗词的应用了,我这里利用 Mo 平台 实现了藏头诗和藏子诗自动生成的功能,运行的效果如下: image image

    新年快到了,赶紧利用算法作诗,给亲朋好友送去“最聪明”的祝福吧! PC 端查看完整代码

    参考文章: https://www.jianshu.com/p/9dc9f41f0b29 https://zhuanlan.zhihu.com/p/26306795 https://github.com/norybaby/poet

    Mo (网址: http://momodel.cn )是一个支持 Python 的人工智能建模平台,能帮助你快速开发训练并部署 AI 应用。

    1 条回复    2019-03-04 16:56:57 +08:00
    sunshaozong
        1
    sunshaozong  
       2019-03-04 16:56:57 +08:00
    文尾示例的两首,不咋地。乱弹琴
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2892 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 26ms UTC 13:47 PVG 21:47 LAX 06:47 JFK 09:47
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86