Python_第五篇 Keras(1)_网络 Dense层的堆叠

定义模型


一、激活函数 activation
model=models.Sequential()
model.add(layers.Dense(隐藏层个数,activation=‘’))
1、softmax
2、softplus
3、softsign
4、relu
5、tanh
6、sigmoid
7、hard_sigmoid
8、linear

编译模型必选两个参数:优化器 optimizers 和 损失函数(目标函数)loss
model.compile(optimizers='', loss='', metrics=[''])

二、优化器 optimizers
1、SGD:随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量
2、RMSprop:除学习率可调整外,建议保持优化器的其他默认参数不变,该优化器通常是面对递归神经网络时的一个良好选择
3、Adagrad
4、Adadelta
5、Adam

三、目标函数、损失函数loss
1、mean_squared_error或mse

2、mean_absolute_error或mae

3、mean_absolute_percentage_error或mape

4、mean_squared_logarithmic_error或msle

5、squared_hinge

6、hinge

7、binary_crossentropy(亦称作对数损失,logloss)
8、
categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

9、sparse_categorical_crossentrop:如上,但接受稀疏标签。注意,使用该函数时仍然需要你的标签与输出值的维度相同,你可能需要在标签数据上增加一个维度:np.expand_dims(y,-1)

10、kullback_leibler_divergence:从预测值概率分布Q到真值概率分布P的信息增益,用以度量两个分布的差异.

11、poisson:即(predictions - targets * log(predictions))的均值

12、cosine_proximity:即预测值与真实标签的余弦距离平均值的相反数

  • 0
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值