input限制输入长度_keras如何多输入多输出,以及中间层输出

f1031bf57b5e617ffa8bc8650f6c78d6.png

在许多新手的眼中,深度学习模型构建好了之后,就只能是固定的输入和输出,甚至构建的模型只能是一个输入一个输出。其实深度学习模型很灵活,想有几个输入就有几个输入,想有几个输出就几个输出,想要哪一层的输出,就要哪一层的输出。今天,我们就用keras的几个例子,让大家对深度模型有个更深入的了解。

多输入多输出

什么情况下需要模型多个输入多个输出呢?

•多输入,单输出

比如在做文本分类任务时,我不仅仅通过文本content去预测结果,还想使用标题特征。

content_in = Input(shape=(300,)) #输入文本长度为300title_in = Input(shape=(20,)) #输入标题为20emb_layer = Embedding(4000, 300) #embedding层,4000表示词的总数,300是输出维度# 文本向量和标题向量共享了embedding层content_emb = emb_layer(content_in)title_emb = emb_layer(title_in)lstm_content = LSTM(128)(content_emb)lstm_title = LSTM(128)(title_emb)#将lstm编码之后的两个向量进行相加,然后再经过dense层add = Lambda(lambda x: x[0]+x[1])([lstm_content, lstm_title])out = Dense(1, activation='sigmoid')(add)

上面的例子有两个输入content_in和title_in,经过同一个embedding层之后,得到对应的向量,然后再分别经过LSTM层进行特征提取,将两个输出通过Lambda层直接相加后,经过dense层就直接进行了分类。这是两个输入,一个输出的情况。

•多输入,多输出

还是以文本分类为例,这个时候,我的任务变成要对文本内容和标题分别进行分类,将他们放在一起的目的只是为了共享embedding层,以获取某种关联特征。我们只需要将上面的代码做个简单的修改。

content_in = Input(shape=(300,)) #输入文本长度为300title_in = Input(shape=(20,)) #输入标题为20emb_layer = Embedding(4000, 300) #embedding层,4000表示词的总数,300是输出维度# 文本向量和标题向量共享了embedding层content_emb = emb_layer(content_in)title_emb = emb_layer(title_in)lstm_content = LSTM(128)(content_emb)lstm_title = LSTM(128)(title_emb)out_content = Dense(1, activation='sigmoid', name='out_content')(lstm_content)out_title = Dense(1, activation='sigmoid', name='out_title')(lstm_title)model = Model([content_in, title_in], [out_content, out_title])

最后模型有两个输出。上个丑图,方便理解。

690a78041adf32584dbd8b8477a482b5.png

输入和输出因为有两个,需要整成list的形式。喂数据的时候,也要以类似的形式输入进去,比如model.fit([X_content, X_title], [Y_content, Y_content])

在编译模型的时候,有一点点不同,这里详细讲一下。如果你对这两个输出没有什么特别需求,可以使用下面的代码简单编译。

model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])

模型在训练的时候,对两个输出都采用“binary_crossentropy”计算loss,并都使用“adam”优化器进行优化。那如果我两个输出的类型不同怎么办?能不能使用不同的loss呢?答案是可以,并且还可以对不同的输出的loss,设置不同的权重。

model.compile(loss={"out_content": 'binary_crossentropy', "out_title": 'categorical_crossentropy' #假设title是个多分类},loss_weights = {"out_content": 0.8,"out_title": 0.3},optimizer='adam', metrics=['accuracy'])

注意到,模型是根据输出层的名字(name参数)来区分不同输出的loss。并且也是根据名字来确定权重。那么怎么给不同输出设置不同优化器呢?这个小编也想知道啊,可它不能够啊。一个比较实用的操作是给不同层设置不同的学习率,这个需要改写优化器函数,不在本文的范畴之内,有兴趣的同学,可以绞尽脑汁去网上找找,反正小编是找了好久才找到一个靠谱的。

中间层的输出

还有一种情况啊,我搭建好的模型,只是为了去训练参数,我任务的最终目标并不是模型的output,而是模型当中的某一层。比如我训练好了一个语言模型,但是我想要的是embedding层的词向量,又比如我训练了一个encoder-decoder模型,我只想要其中的中间表示向量,这该咋整呢?还还还以上面的代码为例,超级简单。

content_in = Input(shape=(300,)) #输入文本长度为300emb_layer = Embedding(4000, 300, name='emb') #embedding层,4000表示词的总数,300是输出维度content_emb = emb_layer(content_in)lstm_content = LSTM(128)(content_emb)out = Dense(1, activation='sigmoid')(lstm_content)model = Model(content_in, out)

为了简单说明,我们使用单输入单输出模型进行介绍。假设你已经用自己的数据训练好了上面模型的参数,但是你的真实目标并不是为了进行文本分类,而是想要这个模型的embedding层,用作获取词向量。怎么做呢?简单来讲,就是把你想要的子模型截取出来。

emb_model = Model(inputs=model.input,                   outputs=model.get_layer('emb').output)

输入还是原来模型的输入,但输出是指定名称的层,即”emb“。再来个丑图说明一下

d3a9c21443654b0f18b05317ae9496fe.png

整体框架图是原模型,训练好参数之后,我只取前两层新构建一个模型(参数依旧是原模型的参数)。

总结

好了,一些base骚操作就介绍给大家。当大家明白了深度学习层之间的关系之后,就不觉得它有多么难理解了,理解了这些东西,大家应该就不难用keras去完成一些以前觉得很难实现的操作了。

精选好文推荐:

  • 好险!差点要写一个300行的 if-else!

  • 爱了爱了!有萌妹纸语音陪我写代码,你也可以!

  • 讲清楚这个知识点,我成功拿到了offer!

  • 面了一个工作3年程序员,这些常见面试题竟一个都答不出来!

  • rasa过分简单!来搭建一个智能客服机器人吧!

扫码下图关注我们不会让你失望! 1f057b6394acfa5026219e31c4c70206.png a77e9aaffebe95fcdf274f7b0ec9b9dc.png好看请点这里~
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值