DeepLearning
斐非韭
这个作者很懒,什么都没留下…
展开
-
2021最新机器学习小抄笔记
机器学习/数据科学面试常见知识点 CheatSheet,一张图表包含问题和简要答案,方便实用,乃居家旅行查漏补缺斩获Offer必备良品。如 Bias-Variance Tradeoff:Imbalanced Data in Classification:PCA:CNN:等等,还有 bonus 如何准备行为面试:...原创 2021-06-17 17:30:05 · 81 阅读 · 0 评论 -
Tensorflow模型的格式
tensorflow模型的格式通常支持多种,主要有CheckPoint(.ckpt)、GraphDef(.pb)、SavedModel。1. CheckPoint(*.ckpt)在训练 TensorFlow 模型时,每迭代若干轮需要保存一次权值到磁盘,称为“checkpoint”,如下图所示:这种格式文件是由 tf.train.Saver() 对象调用 saver.save() 生成的,只包含若干 Variables 对象序列化后的数据,不包含图结构,所以只给 checkpoint 模型不提供代码是原创 2021-06-04 10:58:59 · 671 阅读 · 0 评论 -
【tensorflow】 :AttributeError: module ‘tensorflow‘ has no attribute ‘app‘
AttributeError: module ‘tensorflow’ has no attribute ‘app’solution:import tensorflow ad tf 改为 import tensorflow.compat.v1 as tf之后又报错:sess.run(tf.global_variables_initializer())TypeError: Fetch argument None has invalid type <class ‘NoneType’>.原创 2021-06-03 20:05:31 · 291 阅读 · 0 评论 -
pytorch model save/load load_state_dict
# savetorch.save(model.state_dict(), PATH) # loadmodel = MyModel(*args, **kwargs)model.load_state_dict(torch.load(PATH))model.eval()model.state_dict()其实返回的是一个OrderDict,存储了网络结构的名字和对应的参数。在模型完成训练后,我们需要将训练好的模型保存为一个文件供测试使用,或者因为一些原因我们需要继续之前的状态训练之前保存的模型,原创 2021-06-01 10:01:13 · 140 阅读 · 0 评论 -
mAP:Mean Average Precision
Mask-RCNN校验结果可以通过计算mAP值得到一个数值的衡量,在10张图片上计算平均值,增加更高的准确性。一、 mAP值的计算P:precision,即准确率;R:recall,即 召回率。PR曲线:即以precision和recall作为纵、横轴坐标的二维曲线。AP值:Average Precision,即平均精确度。mAP值:Mean Average Precision,即平均AP值;是对多个验证集个体求平均AP值。...原创 2021-05-31 16:20:24 · 101 阅读 · 0 评论 -
softmax.yml文件
YAML (YAML Aint Markup Language)是一种标记语言,通常以.yml或者.yaml为后缀的文件,是一种直观的能够被电脑识别的数据序列化格式,并且容易被人类阅读,容易和脚本语言交互的,可以被支持YAML库的不同的编程语言程序导入,一种专门用来写配置文件的语言。可用于如: Java,C/C++, Ruby, Python, Perl, C#, PHP等。三、YML语法1.约定k: v 表示键值对关系,冒号后面必须有一个空格使用空格的缩进表示层级关系,空格数目不重要,只要是左对齐原创 2021-05-31 14:35:58 · 102 阅读 · 0 评论 -
market1501 dataset
market1501 dataset reidhttps://drive.google.com/file/d/0B8-rUzbwVRk0c054eEozWG9COHM/view原创 2021-05-31 10:44:25 · 369 阅读 · 0 评论 -
mnist torch实现
#!/usr/bin/env python3# -*- coding: utf-8 -*-"""Created on Sun May 30 14:36:13 2021@author: """"""View more, visit my tutorial page: https://morvanzhou.github.io/tutorials/My Youtube Channel: https://www.youtube.com/user/MorvanZhouDependencies:原创 2021-05-31 09:33:38 · 151 阅读 · 0 评论 -
4.5.1 神经网络搭建八股
4.5.1 神经网络搭建八股模块化网络反向:训练网络; 优化网络参数原创 2021-05-31 09:15:44 · 39 阅读 · 0 评论 -
yolov1论文及其原理介绍--子豪
【OpenCV实战课4】目标检测原理,附YOLO 目标检测实战labelimg 目标检测 标注工具原创 2021-05-30 17:37:54 · 96 阅读 · 1 评论 -
深度学习与PyTorch入门实战
深度学习与PyTorch入门实战–b站cnn框架演化安装环境anaconda梯度mnist前边是理论模型推导pytorch 基础基础数据类型b batch c channel原创 2021-05-30 14:20:34 · 66 阅读 · 0 评论 -
How Convolutional Neural Networks work
How Convolutional Neural Networks work原创 2021-05-30 12:14:57 · 70 阅读 · 0 评论 -
cnn结构---子豪兄】深度学习之卷积神经网络
conv 提取特征pool 防止过拟合+ 减少数据维度+平移不变性fc 汇总特征卷积 池化 卷积 池化 卷积 池化n… fc fc fc黄色的为3通到的卷积核 是一个, 不是3个一个卷积核对应一个feature map同济子豪推荐的直观介绍cnn的blogIntuitive Guide to Convolution Neural Networks下图 32 =卷积核个数;(3,3) =卷积核大小github 动图https://github.com/.原创 2021-05-30 10:41:12 · 126 阅读 · 0 评论 -
超有趣的神经网络可视化工具Tensorflow-Playground
https://www.bilibili.com/video/BV15J411u7Ly正则化对高次系数进行惩罚batch size 每次喂的数据个数epoch 1 = 遍历一遍train数据非线性激活函数sigmoid : 2分类 负无穷 到正无穷 压缩到【0 1】tanh gan lstm 负无穷 到正无穷 压缩到【-1 1】relu cnn各种神经网络的用途cnn 计算机视觉rnn 语音处理 自然语言处理gan 生成图片https://www.b原创 2021-05-30 09:07:47 · 336 阅读 · 0 评论 -
rnn之lstm
解决rnn弊端提出lstmrnn在有序数据上学习梯度消失 w是小于1的数;w>1 梯度爆炸rnn没有办法回忆久远记忆rnn : lstm grurnn与全连接神经网络区别RNN缺陷原创 2021-05-30 12:14:17 · 60 阅读 · 0 评论 -
How Convolutional Neural Networks work【youtube】
How Convolutional Neural Networks work处理类图形数据图像 视频 音频 文本类似股票的统计表(可以交换列 不影响原来信息的) 不能处理和kernal一样为1负数变0展开成一列可以有多个fc超参数nutshell 总结https://www.cs.ryerson.ca/~aharley/vis/conv/http://www.image-net.org/indeximage原创 2021-05-29 16:48:56 · 108 阅读 · 0 评论 -
cnn模型图参数
史上最全的cnn参数计算详解CNN的特征图、感受野、参数量、运算量计算从CNN卷积参数计算到模型加速方法原创 2021-05-29 14:49:41 · 253 阅读 · 0 评论 -
4.4.1 正则化
youtube正则化 缓解过拟合原创 2021-05-29 14:24:15 · 49 阅读 · 0 评论 -
4.3.1 滑动平均
youtube滑动平均( 影子值)原创 2021-05-29 14:16:52 · 84 阅读 · 0 评论 -
4.2.1 学习率
原创 2021-05-29 14:13:15 · 51 阅读 · 0 评论 -
4.1.1 损失函数
softmax概率之和为1原创 2021-05-29 14:08:05 · 225 阅读 · 0 评论 -
反向传播--3.3.1
youtubebatch_size 一次喂给网络多少组数据原创 2021-05-29 13:59:20 · 51 阅读 · 0 评论 -
前向传播---3.2.1 前向传播
youtube link神经网络有几层 指的是计算层;a是计算层;输入层不算;喂一组数据 shape(1,2) 1 :几组 2 :特征placeholder原创 2021-05-29 13:50:42 · 36 阅读 · 0 评论 -
yolo原理--YOLO9000实时目标检测系统
youtube link分成7*7cell每个cell 2个bounding boxanchor9000 是yolo可以解析9000个class类别原创 2021-05-29 11:17:36 · 159 阅读 · 0 评论 -
股票预测LSTM
import pandas as pdimport numpy as npraw = pd.read_csv("600036.csv", encoding="gbk")rawraw.describe(include="all")raw["收盘价"].plot(kind="line")raw[raw["涨跌幅"].str.contains("[a-zA-Z]", regex=True)] #涨跌幅=None#预处理data = raw[(~raw["涨跌幅"].str.contai原创 2021-05-29 10:05:10 · 76 阅读 · 0 评论 -
pytorch常用函数
torch.load用来加载模型。torch.load() 使用 Python 的 解压工具(unpickling)来反序列化 pickled object 到对应存储设备上。首先在 CPU 上对压缩对象进行反序列化并且移动到它们保存的存储设备上,如果失败了(如:由于系统中没有相应的存储设备),就会抛出一个异常。用户可以通过 register_package 进行扩展,使用自己定义的标记和反序列化方法。torch.load(f, map_location=None, pickle_module=<原创 2021-05-28 16:17:29 · 72 阅读 · 0 评论 -
torch.cuda.is_available() is False解决
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device(‘cpu’) to map your storages to the CPU.if __name__ == .原创 2021-05-28 16:16:46 · 259 阅读 · 0 评论 -
TensorFlow白皮书pdf
TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems 白皮书pdf原创 2021-05-28 13:42:39 · 133 阅读 · 0 评论 -
深度学习:Keras入门(一)之基础篇
本文首先介绍Keras基础、Keras的模块结构、使用Keras搭建一个神经网络、主要概念等相关内容。本文来自于博客园,由火龙果软件Anna编辑、推荐。http://www.uml.org.cn/ai/202011042.asp1.关于Keras1)简介Keras是由纯python编写的基于theano/tensorflow的深度学习框架。Keras是一个高层神经网络API,支持快速实验,能够把你的idea迅速转换为结果,如果有如下需求,可以优先选择Keras:a)简易和快速的原型设计(.原创 2021-05-28 13:13:32 · 207 阅读 · 0 评论 -
通过 TensorFlow 实现 AI 语音降噪提升 QQ 音视频通话质量
通过 TensorFlow 实现 AI 语音降噪提升 QQ 音视频通话质量原创 2021-05-28 11:39:19 · 169 阅读 · 0 评论 -
pytorch入门第一个例子
原文link神经网络神经网络可以用torch.nn构建。现在我们可以来看一看autograd这个部分了,torch.nn依赖于它它来定义模型并做微分,nn.Module包含神经层,forward(input)可以用来返回output.例如,看接下来这个可以给数字图像分层的网络。这个是一个简单前馈网络,它将输入经过一层层的传递,最后给出了结果。一个经典的神经网络的学习过程如下所示:定义神经网络及其参数;在数据集上多次迭代循环;通过神经网络处理数据集;计算损失(输出和正确的结果之间相差的距离);原创 2021-05-28 11:20:14 · 119 阅读 · 0 评论 -
Mnist 量化dpu代码解读
Mnist数据集图片格式介绍Mnist数据集分为两部分,分别含有60000张训练图片和10000张测试图片。每一张图片包含28*28个像素。Mnist数据集把代表一张图片的二维数据转开成一个向量,长度为28*28=784。因此在Mnist的训练数据集中mnist.train.images是一个形状为[60000, 784]的张量,第一个维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点,图片里的某个像素的强度值介于0-1之间。#vitis 量化到dpu中的例子'''Create &原创 2021-05-28 09:45:36 · 152 阅读 · 0 评论 -
tensorflow小例子hello_word
TensorFlow入门:第一个机器学习Demoimport tensorflow.compat.v1 as tf#import tensorflow as tftf.compat.v1.disable_eager_execution()# 创建两个常量节点node1 = tf.constant(3.2)node2 = tf.constant(4.8)# 创建一个 adder 节点,对上面两个节点执行 + 操作adder = node1 + node2# 打印一下 adder 节点原创 2021-05-27 19:23:00 · 69 阅读 · 0 评论 -
cnn介绍
深度学习之卷积神经网络CNN及tensorflow代码实现示例卷积神经网络CNN的结构一般包含这几个层:输入层:用于数据的输入卷积层:使用卷积核进行特征提取和特征映射激励层:由于卷积也是一种线性运算,因此需要增加非线性映射池化层:进行下采样,对特征图稀疏处理,减少数据运算量。全连接层:通常在CNN的尾部进行重新拟合,减少特征信息的损失输出层:用于输出结果当然中间还可以使用一些其他的功能层:归一化层(Batch Normalization):在CNN中对特征的归一化切分层:对某些(图片)数原创 2021-05-27 18:21:38 · 289 阅读 · 0 评论 -
person reid demo郑哲东 Deep ReID
https://zhuanlan.zhihu.com/p/50387521原创 2021-05-27 10:34:55 · 142 阅读 · 1 评论 -
Pooling层/池化层/采样层
Pooling层**空间合并(Spatial Pooling)**也可以叫做子采样或者下采样,可以在保持最重要的信息的同时降低特征图的维度。它有不同的类型,如最大化,平均,求和等等。对于Max Pooling操作,首先定义一个空间上的邻居,比如一个2 × 2 2\times 22×2的窗口,对该窗口内的经过ReLU的特征图提取最大的元素。除了提取最大的元素,还可以使用窗口内元素的平均值或者是求和的值。不过,Max Pooling的性能是最好的。例子可以如下图所示:上图中使用的步进值是2。根据相关理原创 2021-05-27 14:18:11 · 530 阅读 · 0 评论 -
非线性层(ReLU)
非线性层(ReLU)非线性修正函数**ReLU(Rectified Linear Unit)**如下图所示:这是一个对每个像素点实现点乘运算,并用0来替换负值像素点。其目的是在CNN中加入非线性,因为使用CNN来解决的现实世界的问题都是非线性的,而卷积运算是线性运算,所以必须使用一个如ReLU的非线性函数来加入非线性的性质。其他非线性函数还包括tanh和Sigmoid,但是ReLU函数已经被证明在大部分情况下性能最好。...原创 2021-05-27 13:52:40 · 1641 阅读 · 0 评论