- 博客(19)
- 资源 (3)
- 收藏
- 关注
原创 博客便捷检索目录
目录Leetcode刷题Verilog刷题CSDN操作tensorflow 学习matlab数字图像处理python-opencv模式识别与机器学习实战练习深度学习强化学习模型的压缩与加速1. 理论分析2. 练习实现3. 剪枝阅读4. 模型设计阅读5. 量化阅读6. 硬件加速网络结构搜索1. 理论分析2.论文阅读实验软件使用与程序语法pytorch使用积累Leetcode刷题Leetcode题目Verilog刷题HDLBits(1)——Modules:HierarchyCSDN操作1.CSDN字
2020-05-15 11:23:49 2273 3
原创 numpy方法积累
目录1. numpy.percentile()的使用1. numpy.percentile()的使用百分位数是统计中使用的度量,表示小于这个值的观察值占总数q的百分比。函数:np.percentile(a, q, axis=None, out=None, overwrite_input=False, interpolation='linear', keepdims=False)参数作用aarray,用来算分位数的对象,可以是多维的数组q介于0-100的float,用
2020-05-31 10:02:54 270
原创 pytorch使用方法积累
这里写目录标题1. net.parameters()查看网络参数1. net.parameters()查看网络参数通过net.parameters我们可以看到网络所有的参数net.parameters<bound method Module.parameters of MyNet( (conv1): MaskedConv2d(1, 32, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)) (relu1): ReLU(inplace=
2020-05-31 08:24:18 736
原创 (小试牛刀)基于Fashion-MNIST数据集的模型剪枝
今天把自己的研究方向给定了,主要是做模型的压缩与加速,以下谈谈看法。目前在深度学习中存在一些困境,对于移动是设备来说,主要是算不好;穿戴设备算不来;数据中心,大多数人又算不起 。这就是做模型做压缩与加速的初衷。当然也是需要理论基础作为支撑的,对与许多网络结构中,如VGG-16网络,参数数量1亿3干多万,占用500MB空间,需要进行309亿次浮点运算才能完成一次图像识别任务,这说明了模型压缩是必要的。我们在谈谈它的可行性。论文提出,其实在很多深度的神经网络中存在着显著的冗余。仅仅使用很少一部分(5%)权
2020-05-30 23:53:41 974
原创 tebsorflow2.0 语义分割(Oxford-IIIT数据集)
语义分割是在像素级别上的分类,属于同一类的像素都要被归为一类,因此语义分割是从像素级别来理解图像的。The Oxford-IIIT Pet Dataset是一个宠物图像数据集,包含37种宠物,每种宠物200张左右宠物图片,并同时包含宠物轮廓标注信息。下面就是tensorflow2.0的对该数据集的语义分割实现。本文基于TF2.0 , 谷歌Colab平台。from google.colab import drivedrive.mount('/content/gdrive')import osos.c
2020-05-23 18:39:41 1713 2
原创 tebsorflow2.0 图像定位+分类(Oxford-IIIT数据集)
对于单纯的分类问题,比较容易理解,给定一副图画,我们输出一个标签的类别。而对于定位问题,需要输出四个数字(x,y,w,h),图像的某一点坐标(x,y),以及图像的宽度和高度,有了这四个数字,我们很容易找到物体的边框。The Oxford-IIIT Pet Dataset是一个宠物图像数据集,包含37种宠物,每种宠物200张左右宠物图片,并同时包含宠物轮廓标注信息。考虑到实验的简洁性,我们将类别分为了两大类“dog”和"cat",其中图片信息是以大写开头为“cat”,小写开头为“dog”1. 导入相关包
2020-05-21 09:18:11 1152 1
原创 tebsorflow2.0 多输出模型实例
文章目录1. 简单介绍2. 加载相关数据包2.1 图片的路径的配置2.2 读取图片3. 图片预处理4. 训练阶段4.1 设置验证集与数据集4.2 构建模型并训练5. 模型评估1. 简单介绍本文的应用场景多输入问题,采用的数据集为有,'black_jeans','black_shoes','blue_dress','blue_jeans','blue_shirt','red_dress','red_shirt'七个类别,我们将根据颜色和衣服类型进行两类输出2. 加载相关数据包import tensor
2020-05-19 23:04:13 543
原创 tebsorflow2.0 使用Keras编写自定义图层和模型
1.构建自定义层1.1 基本模型框架构建首先我们先定义一个全连接层,来对其有一个基本的认识,它应该封装一些权重和一些基本的计算。from tensorflow.keras import layersclass Linear(layers.Layer): def __init__(self, units=32, input_dim=32): super(Linear, self).__init__() w_init = tf.random_normal
2020-05-19 11:40:58 613
原创 机器学习MATLAB实现:MATLAB-直方图均衡化_matlab直方图均衡化
欢迎大家来到安静到无声的《模式识别与人工智能(程序与算法)》,如果对所写内容感兴趣请看模式识别与人工智能(程序与算法)系列讲解 - 总目录,同时这也可以作为大家学习的参考。欢迎订阅,优惠价只需9.9元,请多多支持!
2020-05-18 11:54:11 4039 2
原创 tebsorflow2.0 tf.keras猫狗识别(2)—自定义训练
在上一篇文章中,我们介绍了利用tensorflow封装好的神经网络来训练猫狗数据集。但是在科研中有时我们需要对网络进行修改,这是我们就需要自定义网络训练第一部分我们已经介绍了图片的读取,这里就不在一一赘述tebsorflow2.0 tf.keras猫狗识别,我们直接从图片的预处理。1. 图片预处理在这一部分我们采用from_tensor_slices的方法对图片数据集进行构建,对比tf1.x版本采用队列形式读取数据,这一种方法比较简单切易于理解。#构建一个tf.data.Dataset#一个图片数
2020-05-13 13:04:46 837
原创 tebsorflow2.0 eager模式与自定义训练网络
对比tensorflow1.x版本静态图模式,tensorflow2.x推荐使用的是eager模式,即动态计算模式,它的特点是运算可以立即得到结果。我们可以通过tf.executing_eagerly()来判断是不是eager模式,如果返回的为True,使用的则为eager模式。首先我们简答介绍一下在eager模式下的计算。x = [[2,]]m = tf.matmul(x,x)print(m)tf.Tensor([[4]], shape=(1, 1), dtype=int32)tf.matm
2020-05-11 22:50:40 621
原创 tebsorflow2.0 tf.keras猫狗识别(1)
1. 简单介绍本文的应用场景是二分类问题,采用的数据集为猫狗分类数据集,为了减少训练时间,训练集图片有2123张,验证集有909 张图片,测试的图片有1000张,分为猫和狗两个类别,图片已经放置在dc_2000文件夹下面。2 加载图片2.1 导入相关包并加载图片# 导入相关包from google.colab import drivedrive.mount('/content/gdrive')import osos.chdir("/content/gdrive/My Drive/Colab
2020-05-10 18:43:04 911
原创 tebsorflow2.0 tf.keras序列问题
本章是主要介绍的是序列问题的处理,采用的数据集为电影评论数据集,我们通过keras.datasets.imdb直接导入,之后我们建立模型,对其进行分类,并处理过拟合问题。1. 数据预处理from google.colab import drivedrive.mount('/content/gdrive')import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layersdata = k
2020-05-09 00:48:55 483
原创 tebsorflow2.0 卷积神经网络的实现实例
本实例主要介绍利用tf.data读取图片的方法卷积神经网络的构建训练以及测试1. 数据集介绍本文的应用场景是对于卫星图片数据的分类,图片总共1400张,分为airplane和lake两类,也就是一个二分类的问题,所有的图片已经分别放置在2_class文件夹下的两个子文件夹中。数据集–提取码:7qb02. 加载图片在该过程主要分为两个部分,第一个步骤是读取文件所在的路径,第二个步骤...
2020-05-08 17:26:55 1094 2
原创 tebsorflow2.0 深度学习基础和tf.keras
1. tf.keras实现线性回归1.1 Income数据导入可视化import tensorflow as tfimport pandas as pdimport matplotlib.pylab as pltprint('Tensorflow Version: {}'.format(tf.__version__))data = pd.read_csv(r'C:\Users\lihu...
2020-05-07 14:11:00 412
原创 python中的语法使用(easydict set() plt.subplots() assert)
easydict的作用:EasyDict允许将dict值作为属性访问。>>> from easydict import EasyDict as edict>>> d = edict({'foo':3, 'bar':{'x':1, 'y':2}})>>> d.foo3>>> d.bar.x1>>&g...
2020-05-04 11:50:14 253
原创 (2)tf.Variable中trainable作用
如果为True,则会默认将变量添加到图形集合GraphKeys.TRAINABLE_VARIABLES中。此集合用于优化器Optimizer类优化的的默认变量列表,如果为False则在训练时不会更新该值。global_step = tf.Variable(0, trainable=False)...
2020-05-03 23:55:14 449
转载 (5)Tensorflow 变量及共享变量
本文主要根据TensorFlow变量进行的翻译整理。TensorFlow中变量主要用来表示机器学习模型中的参数,变量通过 tf.Variable 类进行操作。tf.Variable 表示张量,通过运行 op 可以改变它的值。与 tf.Tensor 对象不同,tf.Variable 存在于单个 session.run 调用的上下文之外。在内部,tf.Variable 存储持久张量。具体 op 允...
2020-05-02 18:34:20 265
转载 (4)[Tensorflow]L2正则化和collection【tf.GraphKeys】
L2-Regularization 实现的话,需要把所有的参数放在一个集合内,最后计算loss时,再减去加权值。相比自己乱搞,代码一团糟,Tensorflow 提供了更优美的实现方法。1. tf.GraphKeys : 多个包含Variables(Tensor)集合GLOBAL_VARIABLES:使用tf.get_variable()时,默认会将vairable放入这个集合。我们熟悉的t...
2020-05-01 16:33:30 310
Python可视化典型例程(phcarts,matploible,seaborn)
2023-08-29
[2017年国赛MATLAB创新奖C题]南京铁道职业技术学院-颜色与物质浓度的辨识问题.zip
2023-08-27
[2015年国赛MATLAB创新奖B题]西安电子科技大学-“互联网+”时代的出租车资源配置.zip
2023-08-27
[2015年国赛MATLAB创新奖D题]解放军重庆通信学院-众筹筑屋规划方案设计模型.zip
2023-08-27
[2014年国赛MATLAB创新奖A题]浙江工业大学-嫦娥三号软着陆轨道设计与控制策略.zip
2023-08-27
图像描述标注(Image captioning)软件的设计与实现
2024-01-22
FPGA+图像soble滤波+ZYBO+verilog(这是一个特别完整的工程代码)
2023-08-31
FPGA+Verilog搭建一个卷积运算单元的简单实现+ZYBO+verilog(这是一个特别完整的工程代码)
2023-08-31
FPGA+彩色图片显示+verilog+ZYBO(这是一个特别完整的工程代码)
2023-08-31
FPGA+彩条显示+ZYBO(这是一个特别完整的工程代码)
2023-08-31
如何撰写数学建模论文()
2023-08-31
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人