![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 57
深度学习
zhiguo98
一个在医学院学计算机的医学生!
展开
-
数据集扩增--水平和垂直翻转
这几天在做一个图像分割的比赛,涉及到一点数据增强的内容,为了使数据集的容量变得大一点,所以使原始数据集进行水平和垂直翻转。代码如下:水平翻转:'''Python批量实现图像水平、垂直翻转函数功能:扩大数据量'''import PIL.Image as imgimport ospath_old = r"./data/masks"path_new = r"./data/mask_1"filelist = os.listdir(path_old)total_num = len(file原创 2021-09-26 14:11:47 · 1407 阅读 · 0 评论 -
PyTorch基础(一)
一边学习吴恩达老师的深度学习课程,一边学习PyTorch深度学习框架,这篇博客就来记录昨天学习的PyTorch基础知识。tensor性质import torchimport numpy as npa = torch.tensor([1,2,3],dtype=torch.int)print(a)#形状print(a.shape)#属性print(a.dtype)#维度print(a.ndim)#数据生成#生成2*3全1矩阵b1 = torch.ones(2,3)#生成3原创 2021-04-26 14:33:44 · 144 阅读 · 0 评论 -
深度学习(三)单隐藏层的平面数据分类
接着吴老师的思路进行实验,开始搭建一个具有一个隐藏层的神经网络。一、导入数据集和画图导入数据集之前需要两个文件,具体请参考【数据】import numpy as npimport pandas as pdfrom matplotlib import pyplot as plotfrom testCases import *import sklearnfrom sklearn import datasetsfrom sklearn import linear_modelfrom p原创 2021-04-24 15:04:32 · 1486 阅读 · 0 评论 -
深度学习(二)课程一测验作业
吴老师的第一周课程还有其他作业,这篇博客中,我只总结自己认为重要的,并且是自己薄弱的地方1、tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中在下一层是更好的选择2、权重和偏差初始化为零会导致第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的东西,而在logistic回归中权重和偏置可以为03、前向传播和反向传播中使用的“cache”,用于前向传播中计原创 2021-04-23 15:16:38 · 530 阅读 · 0 评论 -
深度学习(一)简单神经网络【识别猫】
a原创 2021-04-23 11:40:07 · 3527 阅读 · 1 评论