![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 92
zhaohuan_1996
挣足够的钱 或者 沉迷学习
展开
-
BrokenPipeError: [Errno 32] Broken pipe
跟pytorch数据加载torch.utils.data.DataLoader有关系。参考:https://blog.csdn.net/u014380165/article/details/79058479在此处,将num_workers改为1。原创 2020-12-22 11:10:30 · 124 阅读 · 0 评论 -
python:No module named ‘__main__.models‘; ‘__main__‘ is not a package
https://blog.csdn.net/weixin_44415680/article/details/89218434原创 2020-12-22 11:01:47 · 288 阅读 · 0 评论 -
分类模型评判指标 == 混淆矩阵Confusion Matrix
https://blog.csdn.net/Orange_Spotty_Cat/article/details/80520839原创 2020-12-22 10:22:56 · 194 阅读 · 0 评论 -
理解卷积操作
文章目录为啥卷积操作好使?因为它在大致的位置进行粗略的比对。举个例子,为了识别一张图片是x还是o,通过卷积操作,可以使计算机在图片大致的位置进行粗略的比对,这样的话,即使图片中的x旋转、拉伸、位移,也能很好的识别。卷积:原图片与过滤器进行卷积,可以提取特征,浅层提取边缘、纹理特征,随着层数增加,边缘、纹理组合成某一块,图案之类的,到了高层,块与块组合成一个完整的图像。激活函数:经过卷积操作后得到的图片,再通过relu激活函数,可以将负值变为0,这样就可以避免梯度消失或者爆炸等问题。其它值呈线性增原创 2020-12-08 16:55:46 · 236 阅读 · 0 评论 -
吴恩达深度学习第五课第三周
文章目录一、基础模型1.1、seq2seq1.2、image2seq二、集束搜索2.1、背景2.2、集束搜索的实现2.3、集束搜索的改进2.4、集束搜索的误差分析2.4.1、如何进行误差分析2.4.1、case三、bleu得分四、注意力模型五、例子一、基础模型1.1、seq2seq采用两个RNN模型组合的形式,encoder network将输入语句编码成特征向量,代表输入语句的编码特征,传递给decoder network,完成翻译。如图所示:1.2、image2seq应用到图像捕捉领域,即捕原创 2020-07-30 10:18:03 · 179 阅读 · 0 评论 -
吴恩达深度学习第五课--第二周自然语言处理与词嵌入
文章目录一、词嵌入1、词嵌入1.1、意义--词汇表征1.2、词嵌入的特性--类比推理1.3、词嵌入矩阵1.4、学习词嵌入1.5、word2vec1.6、负采样1.7、glove word vector1.8、例子--情感分类1.9、词嵌入除偏一、词嵌入1、词嵌入1.1、意义–词汇表征上一节中通过词汇表向量将单词转化为一个个独立编码,都是向量,且这些向量之间的内积为0,这样就无法知道词汇间的相似性,为了掌握不同单词之间的相似程度,则使用特征表征的方法对每个单词进行编码,上诉的方法又叫单词嵌入。如何原创 2020-07-21 11:19:08 · 323 阅读 · 0 评论 -
吴恩达深度学习第五课--第一周RNN
文章目录一、为何用RNN而不是CNN1.2、BRNN1.3、Deep RNNs二、不同类型的RNNs三、利用RNN解决现实生活的问题3.1、建立语言模型3.2、新的序列采用四、RNN的缺点4.1、梯度爆炸4.1.1、解决1:梯度剪枝:设定一个阈值,一旦梯度最大值达到这个阈值,就对整个梯度向量进行尺度缩小。4.1.2、解决2:LSTM参考红色石头Will一、为何用RNN而不是CNN序列模型用tensorflow独热编码实现CNN的缺点不同样本的输入序列长度或输出序列长度不同CNN无法共享序列不原创 2020-07-11 17:34:23 · 269 阅读 · 0 评论 -
anaconda下载music21包报错
问题:用anaconda的navigator来装music21时报错,于是转到anaconda prompt来装,直接用pip install music21会报错,解决办法:1、升级pip,2、更改下载源,改为阿里云。更改下载源报错,于是我采用一个简单直白的方式,pip install music21 -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com,在每次下载包的时候指定下载源。...原创 2020-07-07 21:56:23 · 710 阅读 · 0 评论 -
深度学习第四周--第四课人脸识别、神经风格转移代码
文章目录声明前言人脸识别简单的人脸验证将人脸图像编码为128位的向量使用卷积网络来进行编码三元组损失函数加载训练好了的模型模型的应用人脸验证人脸识别神经风格转移迁移学习神经风格转换计算内容损失如何确保生成的图像G与图像C的内容匹配计算风格损失风格矩阵风格代价值风格权重计算总的代价值整合模型声明本文参考何宽前言本文的结构:人脸识别:1对多人脸验证:1对1神经风格迁移人脸识别人...原创 2020-03-24 11:18:01 · 401 阅读 · 0 评论 -
深度学习第四周--第四课人脸识别、神经风格转移理论
文章目录前言人脸识别one-shot学习siamese网络三元组损失函数(triplet损失)神经风格迁移深度卷积网络学习什么?代价函数内容代价函数风格代价函数一维到三维推广前言本文的结构是:人脸识别siames网络triple损失神经风格迁移人脸识别要做一个人脸识别系统:人脸识别+活体检测one-shot学习例子,假设数据库有4张公司的员工照片,现在假设某个人来到办...原创 2020-03-22 11:26:17 · 237 阅读 · 0 评论 -
深度学习第四周--第三课目标检测代码
文章目录声明前言模型细节分类阈值过滤非最大值抑制交并比非最大值抑制对所有框进行过滤测试已经训练好了的yolo模型定义分类,锚框与图像维度加载已经训练好了的模型将模型的输出转换为边界框过滤锚框在实际图像中运行计算图批量绘制图声明本文参考何宽前言本文是为了用yolo算法实现汽车识别。为了收集数据,在汽车前引擎盖上安装一个照相机,在开车的时候会每隔几秒拍摄一次前方的道路。让yolo识别80个分...原创 2020-03-21 16:02:47 · 560 阅读 · 0 评论 -
深度学习第四周--第三课目标检测理论
文章目录前言目标定位特征点检测目标检测滑动窗口的卷积实现bounding box预测交并比非极大值抑制anchor boxesyolo算法候选区域前言本文结构:目标定位特征点检测目标检测滑动窗口的卷积实现bounding box预测交并比非极大值抑制anchor boxesyolo算法候选区域目标定位定义:分类+定位一个卷积神经网络可以用softmax输出检测的可...原创 2020-03-19 11:29:08 · 1196 阅读 · 0 评论 -
深度学习第四周--第二课理论
文章目录经典网络LeNet-5AlexNetVGGNet残差网络(ResNet)1x1卷积谷歌Inception网络作用inception网络迁移学习经典网络LeNet-5针对灰度图片训练,例如输入一个32x32x1的图片:图片与一个5x5x6的过滤器做卷积,步伐s=1,padding=0,得到28x28x6的矩阵,再与一个14x14x6的过滤器做均值池化,过滤器宽度为2,步幅为2,图形...原创 2020-03-16 15:29:41 · 240 阅读 · 0 评论 -
深度学习第四周--第二课keras、残差网络搭建
文章目录声明前言一、keras入门--笑脸识别1.1、为何使用keras框架1.2、任务描述1.3、使用keras框架构建模型1.4、测试你的图片1.5、其他一些有用的功能二、残差网络的搭建2.1、为什么使用残差网络2.2、构建残差网络2.2.1、恒等块(identity block)2.2.2、卷积块2.3、构建你的第一个残差网络(50层)2.4、使用自己的图片做测试声明本文参考何宽前言...原创 2020-03-14 21:36:45 · 659 阅读 · 0 评论 -
在anaconda里面引入keras,报'No module named 'tensorflow.python.eager'错误
situation:在anaconda里面安装了tensorflow和keras,但是在引入keras库时,报’No module named 'tensorflow.python.eager’错误。why:原因是keras和tensorflow的版本不匹配。通常是keras版本过高。solution:我在anaconda navigator中将keras的版本降低。再引入keras库来做测试...原创 2020-03-09 11:21:24 · 820 阅读 · 0 评论 -
深度学习第四周--第一课卷积神经网络的实现
文章目录声明前言一、卷积神经网络1.1、导入库1.2、边界填充1.3、单步卷积1.4、卷积层前向传播1.5、池化层前向传播1.6、卷积层的反向传播1.6.1、计算dA1.6.2、计算dW1.6.2、计算db1.7、池化层的反向传播1.7.1、最大值池化层的反向传播1.7.2、均值池化层的反向传播1.7.3、池化层反向传播二、基于tensorflow的卷积神经网络2.0、导入库2.1、创建place...原创 2020-03-08 16:17:37 · 393 阅读 · 0 评论 -
深度学习第四周--第一课卷积神经网络
文章目录声明前言一、卷积神经网络1.1、feature二、边缘检测(垂直边缘检测、水平边缘检测)2.1、why2.2、维度2.3、三维图片的卷积2.3.1、维度三、卷积填充padding和卷积步长3.1、why使用padding3.2、卷积步长四、单层卷积网络4.1、卷积层conv4.1.1、总结4.2、池化层pool4.2.1、意义最大池化层平均池化层4.3、全连接层fullyconnected...原创 2020-03-07 16:13:07 · 345 阅读 · 0 评论 -
深度学习第三课-第一二周机器学习调优通用理论讲解
文章目录声明前言机器学习策略what正交化指标whathow评估指标和优化指标评估指标优化指标开发集、测试集、验证集howother模型表现和人的表现whatotherhow深度学习如何进行误差分析howplanAplanBother迁移学习whathowfeature多任务学习whatfeature端对端学习whatfeature声明本文参考念师前言本文将会学习机器学习中的一些通用理论和...原创 2020-03-04 18:55:13 · 228 阅读 · 0 评论 -
深度学习第二周--第三课tensorflow入门
文章目录#fff原创 2020-03-04 09:19:31 · 224 阅读 · 0 评论 -
深度学习第二周--第三课超参数调优、Batch正则化理论
文章目录前言超参数调试经验超参数有哪些?参数调优?深层神经网络中隐藏层的归一化原理公式batch正则化原理其它原因流程图softmax分类回归问题意义?公式深度学习框架简介前言参考念师。在本篇文章中,将了解机器学习中的超参数调优、batch正则化及深度学习框架。主要包括:超参数调试经验深层神经网络中隐藏层的归一化batch正则化softmax分类回归问题深度学习框架简介超参...原创 2020-03-03 21:10:57 · 226 阅读 · 0 评论 -
安装anaconda和TensorFlow并在jupyternotebook使用
打开anaconda navigator,并在environments中create一个新的环境,命名为TensorFlow,然后在右边寻找TensorFlow包并且安装,再依次安装matplotlib和keras,再进入home,打开TensorFlow环境下的jupyternotebook即可。我运行import tensorflow as ts,会报cannot import name '...原创 2020-03-02 09:36:21 · 884 阅读 · 0 评论 -
深度学习第二周--第二课优化算法实战
文章目录声明梯度下降mini-batch梯度下降法具有动量的梯度下降法Adam优化后的梯度下降法测试加载数据集定义模型mini-batch梯度下降测试具有动量的梯度下降测试Adam优化后的梯度下降测试总结声明本文参考何宽、念师在开始之前,说明一下我们要做什么。我们需要做的是分割数据集和优化梯度下降算法,所以需要做以下几件事:1、分割数据集2、优化梯度下降算法:2.1、不使用任何优化算...原创 2020-02-26 10:19:18 · 228 阅读 · 0 评论 -
深度学习第二周--第二课优化算法
文章目录声明Mini-Bacth梯度下降法对比batch梯度下降和minibatch梯度下降指数加权平均法动量梯度下降法RMSProp梯度下降法Adam优化算法学习速率衰减局部最优问题声明本篇文章参考念师本文中,将了解一些机器学习中的优化算法基本理论。主要包括:Mini-Bacth梯度下降法指数加权平均法动量梯度下降法RMSProp梯度下降法Adam优化算法学习速率衰减局部...原创 2020-02-26 08:55:49 · 239 阅读 · 0 评论 -
深度学习第二课--第一周初始化、正则化、梯度校验
文章目录声明开始之前初始化参数读取并绘制数据初始化为零随即初始化抑梯度异常初始化正则化模型读取并绘制数据集不使用正则化使用正则化使用L2正则化随即删除节点梯度校验高维声明参考何宽、念师开始之前本文中,我们要干三件事:初始化参数:1.1、使用0来初始化参数。1.2、使用随即数来初始化参数。1.3、使用抑梯度异常初始化参数。正则化模型:2.1、使用二范数对二分类模型正则化,尝试避...原创 2020-02-24 16:45:19 · 395 阅读 · 0 评论 -
深度学习第二课--第一周理论知识
文章目录什么是高偏差/高分差?如何解决高偏差如何解决高分差正则化L2正则化dropout正则化什么是梯度消失/梯度下降梯度校验什么是高偏差/高分差?高偏差:如果训练集和测试集的误差率都在15%左右,欠拟合,训练不充分。高分差:如果训练集误差率为1%,测试集误差率为15%,过拟合,测试误差高。如何解决高偏差更大的网络更长的时间新的网络结构如何解决高分差更多训练训练时进行正则...原创 2020-02-24 10:40:55 · 120 阅读 · 0 评论 -
吴恩达深度学习第一课--第四周多层神经网络实现
文章目录声明前言引入相关依赖包初始化参数前向传播函数线性部分linear线性激活部分linear-->avtivation计算成本反向传播线性部分linear backward线性激活部分linear-->activation backward更新参数整合两层神经网络模型L层神经网络分析声明本文参考何宽、念师前言本次教程,将构建两个神经网络,一个是具有两个隐藏层的神经网络,一个...原创 2020-02-18 10:34:56 · 563 阅读 · 0 评论 -
吴恩达深度学习第一课--第三周神经网络基础作业下代码实现
文章目录声明前言准备软件包加载和查看数据集搭建神经网络定义神经网络结构初始化模型的参数实现前向传播计算损失实现后向传播更新参数整合预测试运行完整代码声明首先声明本文参考:https://blog.csdn.net/u013733326/article/details/79702148,我基于他的文章加以自己的理解发表这篇博客,力求理解吸收掌握吴恩达的视频,如有不妥的地方欢迎大家指正。前言博...原创 2020-02-14 09:56:35 · 250 阅读 · 0 评论 -
吴恩达深度学习第一课--第三周神经网络基础作业上正反向传播推导
文章目录正向传播推导第i个样本维度求z[1](i)、a[1](i)、z[2](i)、a[2](i)z^{[1](i)}、a^{[1](i)}、z^{[2](i)}、a^{[2](i)}z[1](i)、a[1](i)、z[2](i)、a[2](i)计算损失向量化维度求Z[1]、A[1]、Z[2]、A[2]Z^{[1]}、A^{[1]}、Z^{[2]}、A^{[2]}Z[1]、A[1]、Z[2]、A[...原创 2020-02-13 09:41:13 · 295 阅读 · 2 评论 -
吴恩达深度学习第一课--第二周神经网络基础作业下代码实现
文章目录步骤需要的库文件取出训练集、测试集了解训练集、测试集查看图片数据维度处理标准化数据定义sigmoid函数初始化参数定义前向传播函数、代价函数及梯度下降优化部分预测部分模型的整合--合并 优化和预测模块完整代码步骤需要的库文件import numpy as np #矩阵运算import matplotlib.pyplot as plt #绘图import h5py #读取h5文件...原创 2020-02-09 16:10:59 · 309 阅读 · 3 评论 -
吴恩达深度学习第一课--第二周神经网络基础作业上正反向传播推导
文章目录正向传播推导第i个样本向量化(从个别到整体)判断向量维度将原始数据进行整合反向传播推导第i个样本损失函数代价函数梯度下降法(实则是多元函数求微分)向量化(从个别到整体)正向传播推导第i个样本输入xix_ixi,通过计算得到z(i)z^{(i)}z(i),然后再使用sigmoid函数得到预测值y^(i)\hat y^{(i)}y^(i),我们需要判断y^(i)\hat y^{(i...原创 2020-02-09 12:09:30 · 208 阅读 · 0 评论 -
'mbcs' codec can't encode characters in position 0--1: invalid character 问题
使用h5py读取数据的时候会出现错误:‘mbcs’ codec can’t encode characters in position 0–1: invalid character原因:路径问题,将字符串作为路径直接使用,需要转义源代码:train_dataset = h5py.File('D:\20200112zhaohuan\software\pycharm\code\hello\tr...原创 2020-02-08 18:31:28 · 3060 阅读 · 1 评论 -
吴恩达深度学习第一课(神经网络与深度学习基础)--第二周神经网络基础
第二周神经网络基础过程:输入x,计算机通过一系列计算,得出y^,我们希望计算而来的y^与期望中的y无限接近。举个例子,给计算机输入一张猫猫的图片,计算机得出一个结果y^,我们希望y^无限接近期望中的结果‘猫猫’。所以我们用损失函数将y^转化为0−1的概率值,但损失函数针对单个样本,而成本函数针对所有样本的损失函数和。过程:输入x,计算机通过一系列计算,得出\hat y,我们希望计算而来的\hat...原创 2020-02-07 21:56:34 · 158 阅读 · 0 评论 -
markdown的数学公式编辑
为了展现公式,使用$$$$代码样式\sum_{i=0}^n i^2 = \frac{(n^2+n)(2n+1)}{6}∑i=0ni2=(n2+n)(2n+1)6\sum_{i=0}^n i^2 = \frac{(n^2+n)(2n+1)}{6}i=0∑ni2=6(n2+n)(2n+1)\sum_{i=0}^\infty i^2∑i=0∞i2\sum_{i=0}^...原创 2020-02-07 17:59:56 · 315 阅读 · 0 评论