函数计算乘积python multi_终于搞懂了Keras中multiloss的对应关系介绍

我就废话不多说了,大家还是直接看代码吧~

model = Model(inputs=[src, tgt], outputs=[y, flow])

#定义网络的时候会给出输入和输出

model.compile(optimizer=Adam(lr=lr), loss=[

losses.cc3D(), losses.gradientLoss('l2')], loss_weights=[1.0, reg_param])

#训练网络的时候指定loss,如果是多loss,

loss weights分别对应前面的每个loss的权重,最后输出loss的和

train_loss = model.train_on_batch(

[X, atlas_vol], [atlas_vol, zero_flow])

#开始训练,loss中y_pred 和y_true的对应关系是:

#输出y与atlas_vol算cc3Dloss,输出flow与zero_flow算gradientloss

补充知识:keras服务器用fit_generator跑的代码,loss,acc曲线图的保存

我就废话不多说了,大家还是直接看代码吧~

import matplotlib.pyplot as plt

... //数据处理代码 省略

history = model.fit_generator(

image_generator, steps_per_epoch=2000 // 32 ,

epochs=16, verbose=1,

validation_data=image_generator_TEST, validation_steps=20

)

print(history.history.keys())

plt.switch_backend('agg') #服务器上面保存图片 需要设置这个

//acc

plt.plot(history.history['acc'])

plt.plot(history.history['val_acc'])

plt.title('model accuracy')

plt.ylabel('accuracy')

plt.xlabel('epoch')

plt.legend(['train', 'test'], loc='upper left')

plt.savefig('acc.jpg')

//loss

plt.plot(history.history['loss'])

plt.plot(history.history['val_loss'])

plt.ylabel('loss')

plt.xlabel('epoch')

plt.legend(['train', 'test'], loc='upper left')

plt.savefig('loss.jpg')

以上这篇终于搞懂了Keras中multiloss的对应关系介绍就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持python博客。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值