exists & in

表面:

exists的执行流程,对外表做循环,判断子查询是否成立,取得结果,所以适用于外表比较小的情况。

in的执行流程,对子查询的结果做循环,然后取得结果,适用于子查询比较小的情况。

对于in exists的性能区别分析:

如果子查询得出的结果集记录较少,主查询中的表较大且又有索引时应该用in,反之如果外层的主查询记录较少,子查询中的表大,又有索引时使用exists
其实我们区分inexists主要是造成了驱动顺序的改变(这是性能变化的关键),如果是exists,那么以外层表为驱动表,先被访问,如果是IN,那么先执行子查询,所以我们会以驱动表的快速返回为目标,那么就会考虑到索引及结果集的关系了。

原则:

尽量避免大表全表扫描

总结:

       以前在网上看的说existsin快,看来是不对的,要分具体情况的

 

注意:

       In忽略null值,如果出现null,查询结果有可能不正确

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
详细解释这段代码:def phsical_loss(y_true, y_pred): y_true =tf.cast(y_true, y_pred.dtype) loss_real=tf.keras.losses.MSE(y_true[0],y_pred[0]) loss_img= tf.keras.losses.MSE(y_true[1],y_pred[1]) amp_ture=tf.pow(y_true[0],2)+tf.pow(y_true[1],2) amp_pred=tf.pow(y_pred[0],2)+tf.pow(y_pred[1],2) loss_amp=tf.keras.losses.MSE(amp_ture,amp_pred) return loss_real+loss_img+loss_amp#两个子模型各加一个完整约束 def angle_loss(y_true, y_pred): y_true = tf.cast(y_true, y_pred.dtype) img_ture=tf.atan2(y_true[1],y_true[0]) img_pred=tf.atan2(y_pred[1],y_pred[0]) return tf.keras.losses.MAE(img_ture,img_pred) def amp_loss(y_true, y_pred): y_true = tf.cast(y_true, y_pred.dtype) amp_ture=tf.pow(y_true[0],2)+tf.pow(y_true[1],2) amp_pred=tf.pow(y_pred[0],2)+tf.pow(y_pred[1],2) loss_phsical=tf.keras.losses.MSE(amp_ture,amp_pred) return loss_phsical model_in=tf.keras.Input((16,16,1)) model_real_out=ResNet18([2,2,2,2])(model_in) model_img_out=ResNet18([2,2,2,2])(model_in) model_all=tf.keras.Model(model_in,[model_real_out,model_img_out]) model_all.compile(loss=phsical_loss, optimizer=tf.keras.optimizers.Adam(tf.keras.optimizers.schedules.InverseTimeDecay( 0.001, decay_steps=250*25, decay_rate=1, staircase=False)), metrics=['mse']) checkpoint_save_path= "C:\\Users\\Root\\Desktop\\bysj\\model_all.ckpt" if os.path.exists(checkpoint_save_path + '.index'): print('------------------load model all---------------------') model_all.load_weights(checkpoint_save_path) cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_save_path, save_weights_only=True,save_best_only=True)
06-06
这段代码定义了三个损失函数:physical_loss、angle_loss和amp_loss,用于训练一个模型,该模型将一个 16x16 的单通道图像作为输入,并输出两个通道的复数值,其中一个通道表示实部,另一个通道表示虚部。 physical_loss 函数计算了三个子损失:实部误差、虚部误差和振幅误差。在计算实部误差和虚部误差时,使用了均方误差(MSE)作为损失函数。在计算振幅误差时,先分别计算出真实值和预测值的振幅,然后同样使用 MSE 作为损失函数。最终的损失是三个子损失的和。 angle_loss 函数计算了一个角度误差,用于约束模型输出的复数值的相位信息。在计算角度误差时,先计算出真实值和预测值的相位角,然后使用平均绝对误差(MAE)作为损失函数。 amp_loss 函数计算了一个振幅误差,用于约束模型输出的复数值的振幅信息。在计算振幅误差时,先分别计算出真实值和预测值的振幅,然后同样使用 MSE 作为损失函数。 接下来,定义了一个输入层 model_in,以及两个输出层 model_real_out 和 model_img_out,它们都使用了 ResNet18 网络结构,分别处理输入图像的实部和虚部。然后,定义了一个完整的模型 model_all,将输入层和两个输出层组合在一起。最后,使用 physical_loss 作为损失函数、Adam 优化器和学习率衰减策略(InverseTimeDecay)对模型进行编译。 在训练模型时,使用了 ModelCheckpoint 回调函数,用于保存模型的权重,并在每个 epoch 结束时评估模型的性能。如果已经存在保存的权重,则加载它们以继续训练模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值