深度学习
菜就多练,不要多想
这个作者很懒,什么都没留下…
展开
-
python使用timm创建模型出现connect error
通过这个网址把权重下载下来,放到对应的目录地址checkpoint_path,比如checkpoint_path = ‘/home/xxx/wide_resnet50_racm-8234f177.pth’。这是因为timm下载权重默认是从huggingfaceHub,国内一般访问不了。其中backbone_name 是你要创建的模型名比如resnet50,自己修改下。上面的url就是权重下载链接,我这里下载的是wide_resnet50_2的权重。本人的timm版本是 0.9.11的。原创 2023-11-21 13:41:08 · 790 阅读 · 2 评论 -
关于colab上传数据集慢的问题
首先将自己的数据集进行压缩压缩完之后上传到自己的OneDrive,然后共享自己的文件复制链接到浏览器上打开(推荐使用Google浏览器)右键下载会出现链接然后再取消复制下载出现的链接然后到colab执行下载,执行语句如下:!curl 链接 --output 要下载的路径注意要下载的路径后面跟着的要是文件,不能是文件夹,如.zip文件,下载完之后再解压缩即可。如下图是我自己下载的,比直接上传要快很多。...原创 2022-02-20 17:03:10 · 955 阅读 · 0 评论 -
浅谈深度学习归一化加快模型收敛速度
在训练模型时,我们经常会对数据进行归一化,甚至在隐藏层中也加入归一化。这样做的主要目的是为了加快模型收敛速度。假设特征在经过卷积层后没有经过归一化的数据如下图分布(xx表示数据点),用sigmoid函数作为激活函数。那么在不经过归一化的时候数据所在的分布会使sigmoid的函数值接近0,这样会导致出现梯度消失的情况。假设在对经过卷积层的数据进行归一化后,数据分布如下图所示,分布会处在中间状态,sigmoid的函数值会取到比较大的值(相对于0)。这样便会加快模型的收敛速度。但是,我们一般并不是简单的原创 2021-12-20 16:29:59 · 4670 阅读 · 2 评论 -
深度学习神经网络矩阵维度的变换
首先,以输入特征数为2,样本数为1,层数为2的神经网络举例子(隐藏层1层+输出层1层)激活函数为sigmoid函数所以有以下的网络一般输入层不算入层数,在这里写为第0层。第0层有两个输入特征,1个样本数,所以矩阵维度为[2,1]第1层有4个单元数,所以矩阵维度的第一维为4,第二维为前一层的单元数(即第0层),所以第1层的矩阵维度为[4,2]第2层有1个单元数,所以矩阵维度的第一维为1,第二维为前一层的单元数(即第1层),所以第2层的矩阵维度为[1,4]一般一个单元里面有两个计算,一个是线性计原创 2021-11-08 21:53:11 · 2178 阅读 · 0 评论 -
Network Compression 网络压缩
网络压缩(Network Compression):就是把一个大的网络压缩成一个小的网络。现如今,手机设备、手表等都比较流行,但我们平常训练的网络都比较大,在一些“小”的设备或许很难存储和运行。所以这就需要把网络进行压缩。常用的方法:Network Pruning(网络剪枝):将训练完的network不重要的参数或神经元进行删除,然后在训练一次。在我们训练网络时,有的参数或者神经元其实并没有起作用或者起很大的作用,所以可以把这些参数或者神经元删除,然后在训练一遍。但为什么要再训练一遍呢,因为你删除参数或原创 2021-11-03 12:40:24 · 752 阅读 · 0 评论 -
LSTM深度学习网络模型保存不了出现EOFerror,TypeError: can‘t pickle _thread.RLock objects
使用sklearn库里的模型使用以下代码保存和读取都出现了错误。joblib.dump(clf,'filename.pkl')clf=joblib.load('filename.pkl')使用Keras提供的一个API解决了该模型以HDF5文件格式保存,所以先要安装h5py Python库,安装方法如下:在cmd中直接pip install h5pymodel = Sequential()model.add(LSTM(...))model.compile(...)model.fit(原创 2021-04-10 20:24:53 · 800 阅读 · 0 评论 -
LSTM(长短时记忆神经网络)预测地铁人流源码
# -*- coding:utf-8 -*-import pandas as pdimport matplotlib.pyplot as pltimport numpy as npfrom sklearn.preprocessing import MinMaxScalerfrom keras.models import Sequentialfrom keras.layers import Dense, LSTMdata = pd.read_csv('./data/单月每日客流1.csv'原创 2021-04-10 20:14:24 · 1919 阅读 · 1 评论 -
深度学习逻辑回归Logistic Regression(入门)
自己的笔记最经典的例子就是房价预测了。通过这个例子来记录下自己对深度学习的理解。(如果理解有误,欢迎指正)1.房价预测假设房价只由房子的大小决定,这里用x表示,而房子的价格用y表示。(前提我们有一些数据(x,y))在坐标轴上描点,如下图,我们需要做的就是找出一条直线以使点尽量在直线上。直线的方程为y=ax+b,在这里,我们把它写成y=wx+b,在我们已知x和y的情况下,我们要求的就是参数w和b。所以首先要学搭建神经网络。这是单个神经网络(规模较小),规模较大的神经网络是由多个单神经元组成。在原创 2021-01-26 21:54:49 · 406 阅读 · 0 评论