相关文章推荐
任性的砖头  ·  解决Failed to obtain ...·  2 年前    · 
求醉的枕头  ·  多线程(三) | ...·  2 年前    · 
老实的绿茶  ·  PYTHON | ...·  2 年前    · 

可以看到语法和语义效果都很不错,直观感受比上次好太多。先占个坑,等有时间再把过程详细整理一下。

以下是2019年8月份记录

小白一个,刚刚费了老大的劲完成一个练手项目——image caption,虽然跑通训练,但是结果却惨不忍睹。于是贴上大神的作品,留待日后慢慢消化。顺便记录下自己踩坑的一些问题。

先膜拜下大神的作品。

本次项目采用的模型结构如下。一路输入信息是利用VGG16提取的图像特征,另一路输入信息是利用LSTM提取的单词串特征,输出是预测的下一个单词。即模型的功能是,在给定图像特征和caption前面若干个单词的情况下,能预测出caption的下一个单词;所以循环若干次后即可得到一句完整的caption。采用的数据集是Flicker8K。

目前效果不怎么好,虽然BLEU4结果为17%,能完整输出一句话,但大部分只能识别出狗、草地等这种特别明显的特征,出现不少张冠李戴的描述,甚至于有些句子一直重复这些特征直到被截断,直观感受很不如意。暂认为可以从这几个方面进行改进:试试其他模型结构(比如Seq2Seq等),增加注意力机制,采用更大的数据集,网络调参。

Bleu评价

迭代生成器问题(yield/next/send/generator)

Embedding层

模型保存与载入

LSTM层

keras中现成的模型及应用

模型的抽取、冻结、微调

文本预处理

图像预处理及归一化

交叉验证问题

提到交叉验证并非就特指k折交叉验证。交叉验证包括3种:简单交叉验证、k折交叉验证、留一交叉验证。

Bleu评价问题

Bleu评价模型,需要注意维度

生成器问题

参考1 参考2

yield、next、send:

  • 有yield语句的函数,返回一个生成器对象;
  • 调用next(g)或g.send()时才会正式执行该函数;
  • 执行到yield语句时返回一个值,函数暂停,下一次调用时会接着这个断点继续执行;
  • 项目中据此改写了图像生成器generator,使其每次返回多张图像信息,加快训练速度(每个epoch由700s缩减至220s)。
  • 模型保存与载入问题

    模型保存:

  • 方法一:结构(存为json文件)+权重
  • model_json = model.to_json()
    with open("model_architecture.json", "w") as f_obj:
        f_obj.write(model_json)
    model.save_weights("model_weights.h5")
    
  • 方法二:直接保存模型
  • model.save('model.h5')
    

    模型载入:

    model = keras.models.model_from_json(open('model_architecture.json').read())
    model.load_weights('model_weight_epoch_1.h5')
    
    model = keras.models.load_model('CIFAR10_model_epoch_1.h5')
    

    其他保存文件:

    np.save('bottleneck_features.npy', x_train_Dense)  # 将提取出的特征保存在.npy文件中
    train_data = np.load('bottleneck_features.npy') 
    
  • pickle库(参考
  • pickle.dump(svm_classifier, open('svm_model_iris.pkl', 'wb')) #写入文件,需要二进制操作
    model = pickle.load(open('svm_model_iris.pkl', 'rb'))
    #下面还未见过应用
    pickle.dumps(obj) #不需要写入文件中,直接返回一个序列化的bytes对象
    pickle.loads(bytes_object) #直接从bytes对象中读取序列化的信息
    

    Embedding问题

    main_input = Input(shape=(100,), dtype='int32', name='main_input')

    x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)

  • 任何layer均可以加name参数;
  • Embedding层只能作为第一层;
  • Input层到Embedding层,内部相当于已经进行onehot转换了,仅需要提供字典大小10000即可;
  • LSTM问题

    LSTM理解

    LSTM重要参数:keras.layers.LSTM(units, activation='tanh',return_sequences=False, return_state=False),其中units为\(a^{<t>}\)\(C^{<t>}\)的神经元个数。

    LSTM中两个参数(return_sequences, return_state)的理解:

  • 两者均默认为false,LSTM对象默认返回一个值,开启return_state后另外返回最后一个cell的隐态\(a^{<t>}\)\(C^{<t>}\)
  • keras中RNN和LSTM等模块没有参数V,要获得\(\hat y^{<t>}\),则需要再接一个Dense层(才是ng课中真正的参数V)转化一下;
  • LSTM中参数activation和recurrent_activation,暂时理解成前者为求\(\tilde C\)\(a\)的激活函数,后者为求三大门的激活函数。(待验证。)

    keras中现成的模型和应用

    keras中自带了一些经典模型,比如VGG、ResNet、Inception等;并提供了这些模型的常见应用场景,比如利用ResNet50分类识别,利用VGG16提取图像特征,抽取模型中间层的输出来提取特征等等。(详见文档中Preprocessing模块的Applications。)

    模型抽取、冻结、微调

    三个问题共参考

    模型抽取:(模型抽取参考

  • 获取层对象,以便获取其参数
  • model.get_layer(name=None,index=None),或者model.layers[index]
  • 获取模型输入
  • model.input
  • 例如:model = Model(inputs=model.input,outputs=model.get_layer(layer_name).output)
  • 模型冻结:(模型冻结参考

  • 通过设置layer对象参数layer.trainable=False,或者模型参数model.trainable=False来控制;(注意layer和model这一参数冲突时默认顺序)
  • 通过model.save()和load_model()方法载入的模型冻结时有问题,故推荐使用结构+权重分开的方式保存模型。(model.to_json() + model.save_weights())
  • 模型fine-tune:模型微调参考【待消化】

    文本预处理问题

    text_to_word_sequence如何添加自定义过滤词?比如加's

  • 目前解决:采用正则表达式先换掉's,再统一过滤掉。
  • 三种常用函数:

  • keras.preprocessing.text.text_to_word_sequence
  • 将一句话打散成单词;输入是字符串,输出是单词列表;
  • 参数:filter可以滤掉不必要的标点符号;lower默认转小写;split默认以空格划分;
  • keras.preprocessing.text.Tokenizer
  • 单词与编码的互换工具;
  • 常用方法(注意输入输出格式):
  • tokenizer.fit_on_texts(["今天 北京 下 雨 了", "我 今天 加班"])
  • tokenizer.texts_to_sequences(["下 雨 我 加班", "北京 下雨"])
  •