- 博客(5)
- 收藏
- 关注
原创 Keras同时有多个输出时损失函数计算方法和反向传播过程
来源:https://stackoverflow.com/questions/57149476/how-is-a-multiple-outputs-deep-learning-model-trainedKeras calculations are graph based and use only one optimizer.The optimizer is also a part o...
2020-01-08 04:38:00 1376
原创 Keras自定义Layer使用说明
自定义 Layer自定义激活函数函数形式比较简单的时候可以用lambda函数:clipped_relu = lambda x: K.activations.relu(x, max_value=4000)Layer类class MLPBlock(Layer): def __init__(self): super(MLPBlock, self).__init__() ...
2020-01-02 22:57:00 474
原创 TensorFlow Variable 和 Tensor 的区别
Variable是Tensor的封装, 在反向传播中其状态会被更新. 所有 Variable 都需要初始化之后才能使用. 一旦 Session 终止, Variable 也就不存在了.可以将 Variable看作训练中的"变量", 而Tensor则是具体的数据.assign和assign_add的作用对象都是Variable.Variable使用assign方法更新变量后, 依然还...
2020-01-02 20:44:00 525
原创 Keras Layer 的 call(x) 和 input_shape
今天用Keras编程的时候发现一个问题,···input_layer = K.layers.Input(shape=(10,))x = K.layers.Dense(20)(input_layer)x = K.layers.Dense(20)(x)···以上写法是可行的,但是以下写法却不行L = K.layers.Dense(20)y = L(input_layer)y...
2020-01-01 04:56:00 1166
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人