深度学习
文章平均质量分 57
观看吴恩达相关课程,记录笔记
咖豆丘
这个作者很懒,什么都没留下…
展开
-
mask中只是保留最大的连通区域
mask保留最大连通区域原创 2022-09-30 13:04:27 · 525 阅读 · 1 评论 -
移除分割内部空白部分
填补采用分割算法预测的结果出现内部空缺的问题原创 2022-09-13 10:51:49 · 845 阅读 · 0 评论 -
tensorflow计算flops
with tf.Session() as sess:run_meta = tf.RunMetadata()opts = tf.profiler.ProfileOptionBuilder.float_operation()flops = tf.profiler.profile(graph=sess.graph,run_meta=run_meta,cmd=‘op’,options=opts)print(‘Sum\t\t\t\t\t\t’,flops.total_float_ops/1e9,‘Gfloat原创 2021-12-31 19:23:59 · 1949 阅读 · 0 评论 -
xml数据转换成txt格式
import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path import joinimport randomfrom shutil import copyfile# 根据自己的数据标签修改classes=["person"]def clear_hidden_files(path): dir_list = os.listdir(path)...原创 2021-07-30 10:44:30 · 871 阅读 · 0 评论 -
图片融合掩膜
import cv2import osimg2="006.png"img2 = cv2.imread(img2)file_path ="D:/pythonProject/AITensorBeijingUni/ClassWu/img/"file_list = os.listdir(file_path)name_list=[]for i in file_list: name_list.append(file_path+i)i=1641for img1 in name_list: .原创 2021-03-03 16:45:30 · 401 阅读 · 1 评论 -
rename python 重命名
import numpy as npimport globimport osimport xml.etree.ElementTree as ETimport xml.dom.minidom'''第一步,将xml文件和图片重新命名'''# 获取文件夹中bmp图片的数量def getDirImageNum(path): bmpDirImagesNum = 0 for bmpfile in os.listdir(path): if os.path.split...原创 2021-03-03 16:37:46 · 331 阅读 · 1 评论 -
交叉熵
https://blog.csdn.net/tsyccnh/article/details/79163834一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便。最近开始研究起对抗生成网络(GANs),用到了交叉熵,发现自己对交叉熵的理解有些模糊,不够深入。遂花了几天的时间从头.转载 2020-08-02 16:59:31 · 261 阅读 · 0 评论 -
random.seed() numpy.random.seed() tf.set_random_seed()作用范围、区别
最近在做图片的深度学习时,在程序中遇到了random.seed()、numpy.random.seed()、tf.set_random_seed()三种随机种子。在深度学习中,先确定好随机种子,以后每次随机的结果相同。在每次执行代码时,使每次切分后的训练集、验证集输入结果相同,便于验证学习参数的有效性和查找问题。但是他们有什么异同?带着这些一连串的疑问,开始了实验。以上三种随机种子分属于不同的Python模组,看似“长的”差不多、“效果”也差不多。关于他们三的用途,很多博主分开讲的很清楚,但是把他们转载 2020-07-22 22:33:59 · 2680 阅读 · 3 评论 -
归一化输入
第一步:subtract out or zero out the mean零均值化第二步:normalize the variance归一化方差即等同于以下:为什么要归一化呢之所以要对输入进行标准化操作,主要是为了让所有输入归一化同样的尺度上,方便进行梯度下降算法时能够更快更准确地找到全局最优解。假如输入特征是二维的,且x1的范围是[1,1000],x2的范围是[0,1]。如果不进行归一化,x1与x2之间分布极不平衡,训练得到的w1和w2也会在数量级上差别很大。...原创 2020-06-02 10:58:50 · 1742 阅读 · 1 评论 -
Dropout正则化
设定保留神经元比例概率keep_prob=0.8,即该层有20%的神经元停止工作。dldl为dropout向量,设置dldl为随机vector,其中80%的元素为1,20%的元素为0。在python中可以使用如下语句生成dropout vector:dl = np.random.rand(al.shape[0],al.shape[1])<keep_prob1然后,第ll层经过dropout,随机删减20%的神经元,只保留80%的神经元,其输出为:al = np.multiply(al,dl原创 2020-05-26 18:44:44 · 746 阅读 · 0 评论 -
正则化Regulation
如果出现了过拟合,即high variance,则需要采用正则化regularization来解决。虽然扩大训练样本数量也是减小high variance的一种方法,但是通常获得更多训练样本的成本太高,比较困难。所以,更可行有效的办法就是使用regularization。我们先来回顾一下之前介绍的Logistic regression。采用L2 regularization,其表达式为:即在原来的损失函数的基础上添加参数λ (正则化参数)除以2m 乘w平方的参数||w|| w欧几...原创 2020-05-26 16:33:13 · 480 阅读 · 0 评论 -
偏差bias 和方差 virance
偏差:描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据。方差:描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散,如下图右列所示。在深度学习中,我们可以同时减小Bias和Variance,构建最佳神经网络模型。如图所示,high bias对应着欠拟合,而high variance对应着过拟合。过拟合即在训练集上表现良好,但在验证集上表现不佳。数据分布离散程度较大,即方差大。欠拟合即使在训练集和验证集表现都不佳,.原创 2020-05-26 15:16:43 · 1020 阅读 · 2 评论 -
BroadCasting in Python(广播)
计算出每一列的和然后用对应的数值相除得出占卡路里的百分比A是3*4的矩阵cal.reshape(1,4)为1*4的矩阵这里相除便用到了广播使用reshape来严谨规定矩阵的形状并且不会带来很大的开支之前逻辑回归中的Z=np.dot(w.T,X)+b中的b也是广播的一种应用...原创 2020-05-22 16:40:48 · 170 阅读 · 0 评论