Tensorflow
记录学习过程
NNothing丶
这个作者很懒,什么都没留下…
展开
-
使用keras六步搭建神经网络
Sequential函数是一个容器,描述了神经网络的网络结构,在Sequential函数的输入参数中描述从输入层到输出层的网络结构。# 拉直层:拉直层可以变换张量的尺寸,把输入特征拉直为一维数组,是不含计算参数的层。# 全连接层tf.keras.layers.Dense(神经元个数,activation="激活函数",keras.regularizers="正则化方式")# 其中activation可选:relu、softmax、sigmoid、tanh等。原创 2023-04-21 17:48:34 · 1227 阅读 · 0 评论 -
学习率(learning rate)
更新后的参数 = 当前参数 - 学习率 * 损失函数的梯度(偏导数)原创 2023-04-20 17:25:51 · 303 阅读 · 0 评论 -
损失函数(loss)
tf.nn.softmax_cross_entropy_with_logits(y_, y)原创 2023-04-20 18:08:30 · 152 阅读 · 0 评论 -
激活函数(4种)
理论上讲,Leaky Relu有Relu的所有优点,外加不会有Dead Relu问题。但是在实际操作中,并没有完全证明Leaky Relu总好于Relu.原创 2023-04-20 17:50:49 · 127 阅读 · 0 评论 -
一些常用函数
【代码】一些常用函数。原创 2023-04-20 16:45:54 · 45 阅读 · 0 评论 -
鸢尾花分类所使用函数详解
如果随机生成的数据在之外,则会重新生成,保证了生成值在均值附近。原创 2023-04-20 15:50:15 · 137 阅读 · 0 评论 -
神经网络实现鸢尾花分类
学习tensorflow过程中的记录。原创 2023-04-17 23:35:48 · 171 阅读 · 0 评论