神经网络
文章平均质量分 59
峰子_
这个作者很懒,什么都没留下…
展开
-
使用tf.GradientTape()训练模型,模型却不会收敛,loss一直大幅度波动或者不变得一些解决办法
一、提出问题import tensorflow.keras as kerasimport tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltimport nets_VAEif __name__ == '__main__': batch_size = 2 epoch = 100 iteration = 30000 (train_x, train_y), (test_x, test_原创 2021-05-14 15:46:21 · 1115 阅读 · 4 评论 -
解决ValueError: Graph disconnected: cannot obtain value for tensor Tensor(“input_4:0“, shape=(None, 28
解决ValueError: Graph disconnected: cannot obtain value for tensor Tensor("input_4:0", shape=(None, 28, 28, 1), dtype=float32) at layer "functional_5". The following previous layers were accessed without issue: []我是在试图将两个模型合并为一个模型时遇到的时候遇到的错误。错误代码:.原创 2021-05-13 13:54:57 · 4448 阅读 · 1 评论 -
使用汉明距离、LAB色彩空间相似性来衡量图片相似性
Google、Baidu 等搜索引擎相继推出了以图搜图的功能,测试了下效果还不错~ 那这种技术的原理是什么呢?计算机怎么知道两张图片相似呢?根据Neal Krawetz博士的解释,原理非常简单易懂。我们可以用一个快速算法,就达到基本的效果。这里的关键技术叫做”感知哈希算法”(Perceptual hash algorithm),它的作用是对每张图片生成一个”指纹”(fingerprint)字符串,然后比较不同图片的指纹。结果越接近,就说明图片越相似。下面是一个最简单的实现:第一步,缩小尺寸。原创 2020-06-19 15:11:41 · 1560 阅读 · 0 评论 -
tensorflow2加载模型并修改模型
def reload_output_layer(model): #model为加载的模型 new_model = keras.Sequential() #获取模型最后一层 old_output_layer = model.layers[-1] #获取最后一层配置文件 old_config = old_output_layer.get_config(...原创 2020-04-21 02:44:48 · 1816 阅读 · 0 评论 -
keras的Conv2DTranspose与Conv2D输出大小
转载 2020-04-17 00:59:09 · 631 阅读 · 0 评论 -
神经网络反向传播算法数学原理
原文地址:https://blog.csdn.net/weixin_41718085/article/details/79381863摘要: 最近在学习 Coursera 上 Andrew Ng 的 Machine Learning 课程。这是一个面向应用,注重实践而尽量避免数学证明的课程,好处在于能快速帮助更多新人入门。然而从新手到高手的路是绕不开数学的。第五周的课程讲授了人工神经网络参数的...转载 2019-08-28 21:27:44 · 335 阅读 · 0 评论 -
神经网络隐藏层到隐藏层的权值更新
https://www.cnblogs.com/vipyoumay/p/9334961.html转载 2019-08-30 12:09:58 · 4160 阅读 · 0 评论 -
各种梯度下降法原理与Dropout
一、梯度法思想梯度法思想的三要素:出发点、下降方向、下降步长。机器学习中常用的权重更新表达式为:,这里的λ就是学习率,本文从这个式子出发来把机器学习中的各种“梯度”下降法阐释清楚。机器学习目标函数,一般都是凸函数,什么叫凸函数?限于篇幅,我们不做很深的展开,在这儿我们做一个形象的比喻,凸函数求解问题,可以把目标损失函数想象成一口锅,来找到这个锅的锅底。非常直观的想法就是,我们沿...转载 2019-09-17 10:42:29 · 516 阅读 · 0 评论