在许多新手的眼中,深度学习模型构建好了之后,就只能是固定的输入和输出,甚至构建的模型只能是一个输入一个输出。其实深度学习模型很灵活,想有几个输入就有几个输入,想有几个输出就几个输出,想要哪一层的输出,就要哪一层的输出。今天,我们就用keras的几个例子,让大家对深度模型有个更深入的了解。
多输入多输出
什么情况下需要模型多个输入多个输出呢?
•多输入,单输出
比如在做文本分类任务时,我不仅仅通过文本content去预测结果,还想使用标题特征。
content_in = Input(shape=(300,)) #输入文本长度为300title_in = Input(shape=(20,)) #输入标题为20emb_layer = Embedding(4000, 300) #embedding层,4000表示词的总数,300是输出维度# 文本向量和标题向量共享了embedding层content_emb = emb_layer(content_in)title_emb = emb_layer(title_in)lstm_content = LSTM(128)(content_emb)lstm_title = LSTM(128)(title_emb)#将lstm编码之后的两个向量进行相加,然后再经过dense层add = Lambda(lambda x: x[0]+x[1])([lstm_content, lstm_title])out = Dense(1, activation='sigmoid')(add)
上面的例子有两个输入content_in和title_in,经过同一个embedding层之后,得到对应的向量,然后再分别经过LSTM层进行特征提取,将两个输出通过Lambda层直接相加后,经过dense层就直接进行了分类。这是两个输入,一个输出的情况。
•多输入,多输出
还是以文本分类为例,这个时候,我的任务变成要对文本内容和标题分别进行分类,将他们放在一起的目的只是为了共享embedding层,以获取某种关联特征。我们只需要将上面的代码做个简单的修改。
content_in = Input(shape=(300,)) #输入文本长度为300title_in = Input(shape=(20,)) #输入标题为20emb_layer = Embedding(4000, 300) #embedding层,4000表示词的总数,300是输出维度# 文本向量和标题向量共享了embedding层content_emb = emb_layer(content_in)title_emb = emb_layer(title_in)lstm_content = LSTM(128)(content_emb)lstm_title = LSTM(128)(title_emb)out_content = Dense(1, activation='sigmoid', name='out_content')(lstm_content)out_title = Dense(1, activation='sigmoid', name='out_title')(lstm_title)model = Model([content_in, title_in], [out_content, out_title])
最后模型有两个输出。上个丑图,方便理解。
输入和输出因为有两个,需要整成list的形式。喂数据的时候,也要以类似的形式输入进去,比如model.fit([X_content, X_title], [Y_content, Y_content])
。
在编译模型的时候,有一点点不同,这里详细讲一下。如果你对这两个输出没有什么特别需求,可以使用下面的代码简单编译。
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
模型在训练的时候,对两个输出都采用“binary_crossentropy”计算loss,并都使用“adam”优化器进行优化。那如果我两个输出的类型不同怎么办?能不能使用不同的loss呢?答案是可以,并且还可以对不同的输出的loss,设置不同的权重。
model.compile(loss={"out_content": 'binary_crossentropy', "out_title": 'categorical_crossentropy' #假设title是个多分类},loss_weights = {"out_content": 0.8,"out_title": 0.3},optimizer='adam', metrics=['accuracy'])
注意到,模型是根据输出层的名字(name参数)来区分不同输出的loss。并且也是根据名字来确定权重。那么怎么给不同输出设置不同优化器呢?这个小编也想知道啊,可它不能够啊。一个比较实用的操作是给不同层设置不同的学习率,这个需要改写优化器函数,不在本文的范畴之内,有兴趣的同学,可以绞尽脑汁去网上找找,反正小编是找了好久才找到一个靠谱的。
中间层的输出
还有一种情况啊,我搭建好的模型,只是为了去训练参数,我任务的最终目标并不是模型的output,而是模型当中的某一层。比如我训练好了一个语言模型,但是我想要的是embedding层的词向量,又比如我训练了一个encoder-decoder模型,我只想要其中的中间表示向量,这该咋整呢?还还还以上面的代码为例,超级简单。
content_in = Input(shape=(300,)) #输入文本长度为300emb_layer = Embedding(4000, 300, name='emb') #embedding层,4000表示词的总数,300是输出维度content_emb = emb_layer(content_in)lstm_content = LSTM(128)(content_emb)out = Dense(1, activation='sigmoid')(lstm_content)model = Model(content_in, out)
为了简单说明,我们使用单输入单输出模型进行介绍。假设你已经用自己的数据训练好了上面模型的参数,但是你的真实目标并不是为了进行文本分类,而是想要这个模型的embedding层,用作获取词向量。怎么做呢?简单来讲,就是把你想要的子模型截取出来。
emb_model = Model(inputs=model.input, outputs=model.get_layer('emb').output)
输入还是原来模型的输入,但输出是指定名称的层,即”emb“。再来个丑图说明一下
整体框架图是原模型,训练好参数之后,我只取前两层新构建一个模型(参数依旧是原模型的参数)。
总结
好了,一些base骚操作就介绍给大家。当大家明白了深度学习层之间的关系之后,就不觉得它有多么难理解了,理解了这些东西,大家应该就不难用keras去完成一些以前觉得很难实现的操作了。
精选好文推荐:
好险!差点要写一个300行的 if-else!
爱了爱了!有萌妹纸语音陪我写代码,你也可以!
讲清楚这个知识点,我成功拿到了offer!
面了一个工作3年程序员,这些常见面试题竟一个都答不出来!
rasa过分简单!来搭建一个智能客服机器人吧!