- 博客(392)
- 资源 (1)
- 收藏
- 关注
原创 Python高效批量读取大数量级Json文件
目前在做的一个实验的数据集包含了两万个json文件,为了能高效读取所有的json文件并转换成dataframe格式以实现端到端的数据处理,不得不写了一个小工具:try: import ujson as jsonexcept ImportError: try: import simplejson as json except ImportError: import jsonimport pandas as pdimport osclass
2021-11-10 11:45:48 2741 1
原创 Git上传本地仓库流程笔记
1、在github上创建项目2、使用git clone https://github.com/xxxxxxx/xxxxx.git克隆到本地3、编辑项目4、git add . (将改动添加到暂存区)5、git commit -m "提交说明"6、git push origin master 将本地更改推送到远程master分支。(1) rm -rf .git/(2) git init(3) git remote add originhttps://re..
2021-11-09 20:50:37 225
原创 全网独家 Loaded runtime CuDNN library: 8.0.5 but source was compiled with: 8.1.0. 解决方案
翻译:加载的cuDNN是8.0.5,但是tensorflow的源需要的版本是8.1.0直观原因:版本冲突解决方案:确认了自己的cuda和cudnn版本与tensorflow适配无误后,开始检查系统中所有的包含cuda和cudnn依赖的软件,期间卸载了matlab但是没有用,后来想到了pytorch也同样和cuda以及cudnn有关联,我查看了一下pytorch的版本发现我用的是torch 1.8,它所适配的cuda是11.1,对应的cudnn是8.0.5,这下破案了。最后升级了一下pytorch,解
2021-11-09 09:48:31 4398 1
原创 最新版 tensorflow cuda cudnn 版本匹配
GPUVersion Python version Compiler Build tools cuDNN CUDA tensorflow_gpu-2.6.0 3.6-3.9 MSVC 2019 Bazel 3.7.2 8.1 11.2 tensorflow_gpu-2.5.0 3.6-3.9 MSVC 2019 Bazel 3.7.2 8.1 11.2 tensorflow_gpu-2.4.0 3
2021-11-08 21:56:01 1333
原创 ‘Keyword argument not understood:‘, ‘keepdims‘ 解决方案
报错原因由于tensorflow和keras的更新,导致tensorflow在globalMapPooling2D这个方法中需要使用 keepdims这个参数由于我是在使用迁移学习fine-tuning这个场景下出的这个问题,而我确实是修改了 globalMapPooling2D,所以只需要改成output = keras.layers.GlobalMaxPooling2D(keepdims=True)(output)...
2021-11-08 20:11:55 2583
原创 module ‘tensorflow.compat.v2.__internal__‘ has no attribute ‘register_clear_session_function‘ 解决方法
错误import:from tensorflow import kerasfrom keras.preprocessing import image正确import:from tensorflow import kerasfrom tensorflow.keras.preprocessing import image原因:目前版本的keras已完全并入tensorflow,并将tensorflow作为自身后台进行实现与运行...
2021-11-08 09:36:21 775
转载 Pre-CFAR Dataset总结
Pre-CFAR DataRange Azimuth Map2019-Deep Learning-based Object Classification on Automotive Radar Spectra 2020-Image Segmentation and Region Classification in Automotive High-Resolution Radar Imagery 2020-YOLO-Based Simultaneous Target Detection and C
2021-11-03 19:35:42 519
原创 关于tensorflow-gpu 2.6报错no module named ‘tensorflow’
今天因为要用keras跑代码,发现keras是在CPU而非是在GPU上跑,于是下载了tensorflow-gpu和CUDA以及cuDNN,但import tensorflow时还是出现了no module named ‘tensorflow’去pycharm上看了下anaconda的环境,结果发现目前tensorflow官方显示发布的最新版本是2.5,但是pip给我安装的是2.6,问题就出在了这里。解决方案卸载tensorflow-gpu 2.6,下载tensorflow-gpu 2.5.
2021-11-02 16:37:10 1100
原创 jupyter上传文件夹方法
首先,jupyter是无法上传文件夹的,只能依靠上传压缩文件然后解压曲线救国。zip文件import zipfilef = zipfile.ZipFile("PennFudanPed.zip",'r') # 原压缩文件在服务器的位置for file in f.namelist(): f.extract(file,"/PennFudanPed/") # 解压到的位置f.close()rar文件from unrar import rarfile
2021-10-19 20:33:23 2835
转载 详解FPN网络
目录导读摘要简介相关工作FPN算法FPN应用于RPNFPN应用于Fast RCNN对比实验FPN对RPN网络的影响FPN对Fast RCNN网络的影响总结参考文献导读《Feature Pyramid Networks for Object Detection》这篇文章主要是用来解决Faster RCNN物体检测算法在处理多尺度变化问题时的不足。Faster RCNN中无论是RPN网络还是Fast RCNN网络,都是基于单个高层特征(conv4)。这
2021-10-15 09:34:08 40927 5
原创 详解CNN的感受野
目录前言CNN特征图可视化感受野计算公式计算Receptive Field Size的小程序前言感受野(receptive field,RF)也许是CNN中最重要的概念之一,从文献上来看,它应当引起足够的重视。目前所有最好的图像识别方法都是在基于感受野理念来设计模型架构。然而,据我所知,目前并没有一个完整的教程来介绍如何计算并可视化一个CNN的感受野。这篇文章将填补这一空白,这里介绍CNN特征图可视化的一种新方法,可视化可以显示感受野信息,并且给出一个完整的感受野计算公式,它适用
2021-10-12 10:46:25 742
原创 关于不同场景下的Encoder-Decoder
Encoder-Decoder简而言之就是将信息从一种表示转换成中间表示,再由中间表示去转换成另一种表示。目前Encoder-Decoder结构已应用的领域包括 机器翻译,图像分割,图像生成。但他们的用处和意义有所不同。机器翻译Encoder-Decoder机器翻译最典型的编码-解码模型就是seq2seq,Encoder通过序列化的输入以及隐层神经元的共同作用得到中间表示——上下文神经元context cell(上下文神经元),而后中间表示和Decoder的隐层神经元共同作用而产生输出值。.
2021-10-11 18:39:10 1828
原创 关于ROI Pooling和ROI Align
前言在RPN网络得到了一堆proposals / Region of Interest后,我们需要对这些proposals进行特征提取,进而完成分类任务,然而因为目标物体的大小各不相同,所以我们不能简单地使用固定大小的max-pooling来进行特征池化,而应当使用ROI Pooling根据不同大小的proposal进行特征池化。ROI Pooling对于大目标物体的效果很好,但对于小目标物体效果很差,因此后人又引入了ROI Align。ROI Pooling首先我们可以看到ROI pool
2021-10-11 14:54:28 295
原创 详解基于Encoder-Decoder的seq2seq
前言Seq2seq全称即为sequence to sequence,简而言之就是一个序列转换成另一个序列,它经常会被用于机器翻译这项任务。对于机器翻译这项任务,有一个较为漫长的发展过程。下面我将从传统机器翻译、统计机器翻译以及神经机器翻译三个阶段进行阐述。传统机器翻译传统机器翻译主要由两部分实现构建大量的翻译规则 构建一个大型的双语对照表这需要大量的经验积累,但人的精力和思想总是有限的,特别是在遇到中文这种有着复杂语法的语言时,传统机器翻译基本就嗝屁了。统计机器翻译统计机器.
2021-10-09 18:37:11 1300
原创 pandas按索引批量选取列数据
选取连续列:# 选取索引为0-17的列data_frame_no_yuanfazao.iloc[:, range(18)]选取间断列:# 选取索引为0,1,3,4的列data_frame_no_yuanfazao.iloc[:, [0, 1, 3, 4]]
2021-10-05 21:37:07 1301
原创 全网最通俗易懂的 Self-Attention自注意力机制 讲解
前言因工作需要,不得不再次将Transformer从尘封的记忆中取出。半年前学Transformer的时候只觉得模型好复杂,步骤好复杂,论文读完,想了好几天,感觉还是没有完全搞明白,仅仅是记住了一些专有名词,除了用于吹牛逼其余一无是处,因为内部的机理完全不明白,所以这些名词啊、公式啊转眼就忘。Self-attention是Transformer最核心的思想,这两天重新阅读了论文,有了一些新的感想,便急忙将其记下,与朋友们共勉。博主刚开始接触self-attention时,最不理解的地方就是Q
2021-10-04 15:40:29 70116 70
原创 浅析自回归模型
自回归模型用于预测时间序列中将来的值。使用该模型时,通常需要假定一个随机变量的值依赖于它前面的值。另外,该模型还假定前后值之间的关系是线性的,我们要做的就是拟合数据,以便给数据找到适当的参数。自回归模型的数学公式如下:上面公式中,c是常量,最后一项是随机分量,又名白噪声。这给我们提出了一个很常见的线性回归问题,但从实用性考虑,保持模型的简单性十分重要,因此我们只保留必要的滞后分量。按机器学习的专业术语来说,这些叫做特征。处理回归问题时,目前首先会选择使用python的scikit-learn
2021-10-04 10:28:08 2190
原创 详解RNN变体——LSTM
翻了一圈博客发现之前没写,正好最近要开始写这一块的算法,就当重新回顾一下了。目录前言RNN结构LSTM整个流程前言循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。对循环神经网络的研究始于二十世纪80-90年代,并在二十一世纪初发展为深度学习(deep learni
2021-10-02 17:43:12 469
原创 多模态(Fusion)融合的几种骚操作
概要介绍首先,做多模态融合前我们可以思考这几个问题如何获取多模态的表示【learn multimodal representations】 如何做各个模态的融合【fuse multimodal signals at various levels】 多模态的应用【multimodal applications】带着这几个问题我们开始今天的博客。融合Fusion做的事情简而言之就是信息整合,将不同模态表示的信息融合为一个信息,得到一个特征向量,然后利用特征向量去做接下来的任务;用黑话讲就是深度
2021-09-19 19:29:36 7298 2
原创 傻子都能看懂的——详解AdaBoost原理
之前纠结是否要离开CSDN,最近还是决定留下来继续。关于Boost集成学习中有两个重要概念,分别为Bagging和Boost。其中Boost也被称为增强学习或提升法,是一种重要的集成学习方法,它能够将预测精度仅仅比随机猜测略高的弱学习器增强为预测精度很高的强学习器。这是在直接构造强学习器较为困难的情况下,为学习算法提供了一种有效的新思路和新方法。其中较为成功的是上个世纪90年代Yoav Freund和Robert Schapire提出的AdaBoost算法。Boost原理图可以将上图过程总结
2021-09-18 16:33:29 38516 26
原创 RPN网络理解
这是一个出自Faster R-CNN论文中的用于产生2D proposal的神经网络,目前也被改进用于3D-proposal的产生,RPN一般会和目标检测器配合使用,两者组合形成2-stage object detection。这周的汇报中我将RPN的主要部分整理成了一份PPT,各位在看Faster R-CNN和其他用到RPN的目标检测网络之前可以先看一下这个RPN大概有那些要点,这样就可以有的放矢地去读论文。链接:https://github.com/GuanRunwei/Fusion-of-Ra
2021-09-17 10:24:10 272
原创 授课型英硕申请Ph.D (带奖)历程
前因开头有点长,先从我摸鱼2020年秋招和高开低走的2021年春招说起。2020年11-12月也就是刚开学两个月左右,本人也跟着秋招大军一块凑热闹,其实主要是看看市场行情顺便掂量一下自己几斤几两。投了几家大厂、一家行业巨头和一家国内知名车企的软开,最后是拿到了后两个公司的offer,其中一个还在德国,大厂的全军覆没,别问为什么,本科做C#开发的临近大四才转Java,靠着生啃群里红头像大佬给的一本JVM原理和刷牛客网题目才有幸去了某Fin-tech实习了俩月。虽然大学经常打比赛和做横向课题,打过的比赛
2021-09-15 19:59:04 1399 2
原创 总结所有的池化(Pooling)方法
为什么池化?池化(Pooling)层和卷积层、全连接层一样,都是卷积神经网络的组成部分。卷积神经网络中的卷积层会将卷积Filter应用于输入图像,以便创建特征映射来总结输入中这些特征的存在。卷积层被证明是非常有效的,在深层模型中叠加卷积层可以让接近输入的层学习低层特征(如线条),在模型中更深(高)的层用于学习高阶或者更抽象的特征,如形状或特定对象。卷积层特征映射输入的一个局限性是它们只能精确记录特征在输入层的位置。这意味着在输入图像中特征位置的小幅移动将导致不同的特征映射。这可以随着重新裁剪
2021-06-29 20:03:41 11367 3
原创 浅析信号与系统2(离散时间复指数序列的周期性质)
虽然连续时间信号与离散时间信号有许多相似之处,但是也存在一些重要的差别。我们首先来看下离散时间指数信号。
2021-05-28 23:47:39 6554
原创 傻子都能看懂的 —— 详解欧拉公式推导
不论是高等数学还是大学物理,欧拉公式都如影随形。因为其重要性和划时代意义,Euler Formula(欧拉公式)有着很多了不起的别称,例如“上帝公式”、“最伟大的数学公式”、“数学家的宝藏”等等。...
2021-05-27 19:26:29 33212 12
原创 浅析信号与系统1(指数信号与正弦信号)
1. 连续时间信号与离散时间信号连续时间信号:自变量是连续可变的,因此信号在自变量的连续值上都有定义离散时间信号:定义在离散时刻点上。2. 自变量的变换首先,时移是一种简单且很重要的信号自变量变换。在离散时间情况下的时移如下图所示:这里有两个信号和,它们在形状上是完全一样的,但在位置上互相有个移位。在连续时间情况遇到的时移如下图所示,这里代表一个延时(为正)的,或是一个超前(为负)的。这种形式关联的信号可以在声纳、地震信号处理以及雷达等应用中找...
2021-05-26 04:49:48 3898
原创 浅析集成学习(Ensemble Learning)
目录0 导语1 集成学习1.1 Bagging1.2 Boosting1.3 Stacking2. 代表算法2.1Random Forest2.1.1 思想2.1.2 优缺点2.2 Adaboost2.2.1 思想0 导语当做重要决定时,大家往往会考虑吸收多个专家而非仅仅一个人的意见。同样地,这种思想也可用于机器学习。机器学习领域内有许多回归或分类模型算法,我们自然是可以将这些算法组合起来,这种组合结果就被称为集成方法(ensemble me...
2021-05-08 19:52:13 741
原创 浅析生成对抗网络(Generative Adversarial Networks)
导语除却变分自编码器VAE(Variational Auto-Encoder), 生成对抗网络GAN(Generative Adversarial Networks)同样也是一种生成模型(Generative Model)。VAE中比较恶心的是隐变量z的求解,我们通常使用以下公式生成隐变量z的概率分布,通常假设p(z)服从标准正态分布(参数和可调整)。VAE的问题就在于我们无法对其进行直接优化,而是根据可能性推导和优化下限(相关博文后面会更新,详细推导VAE的整个过程)。在VAE中,..
2021-05-02 17:51:56 2448 3
原创 浅析自动编码器(自编码器 Autoencoder)
引言 当你在看论文的时候,经常会遇到编码器、解码器、自编码器(Autoencoder)这些字眼,它们到底是干什么的呢?其主要作用又是什么呢?那么本篇主要带大家了解自编码器(Autoencoder)。自编码器(Autoencoder)介绍自编码简单模型介绍 暂且不谈神经网络、深度学习等,仅仅是自编码器的话,其原理其实很简单。自编码器可以理解为一个试图去还原其原始输入的系统。自编码器模型如下图所示。 从上图可以看出,自编码器模型主要由编码器(Encoder)和解码器
2021-04-22 00:03:16 9585
翻译 迁移学习具体场景与方法
导语实际上,很少有人从头开始训练整个卷积网络(使用随机初始化),因为拥有足够大小的数据集相对很少。相反,通常在非常大的数据集上对ConvNet进行预训练(例如ImageNet,其中包含120万个具有1000个类别的图像),然后将ConvNet用作初始化或固定特征提取器以完成感兴趣的任务。三种主要的迁移学习方案ConvNet作为固定特征提取器。取一个在ImageNet上预先训练好的ConvNet,删除最后一个完全连接的层(这层的输出是不同任务(如ImageNet)的1000个类的分数),然后将其余
2021-04-09 03:59:07 680
原创 详解马尔科夫链
引言先不上定义,先以一个例子开头。例子最简单的一个例子:已知父母具有某项特长天赋的条件下,孩子也拥有的概率,与,已知祖宗十八代和父母的信息的条件下,孩子拥有这项天赋的概率,是一样的。 若要用人生的例子来讲,已知你大学学习情况下 和已知你在幼儿园小学初中高中大学的所有学习情况下,考研能不能考上的概率是一样的。再来个例子:有一只青蛙呆在井底(q=1),一层一层的向上跳,到达第i层之后,他能跳上去的概率和跳不上去(直接回到底层)的概率:也就是说,每一次这只青蛙站在比如第..
2021-03-29 16:54:35 2732
原创 简述迁移学习(Transfer Learning)
迁移学习定义《深度学习》第526页对于迁移学习的定义:迁移学习和域适应指的是在一种环境中学到的知识被用在另一个领域中来提高它的泛化性能。
2021-03-21 01:33:38 10637
原创 激活office时,提示CScript错误:无法找到ospp.vbs脚本引擎vbscript
你应该不是安装到C盘吧,你把office安装目录C:\Program Files\Microsoft Office\Office16或者Office15 复制到 你安装的Office目录下或者是kms激活指定的目录下,然后再激活试试。。我刚刚也遇到一样的问题,随便试了一下就成功了。...
2021-03-19 01:36:44 23392 1
原创 激活函数归纳
目录写在前面:1.Sigmoid2. tanh3.ReLU4. Leaky ReLU, PReLU(Parametric Relu), RReLU(Random ReLU)Sigmoid tanh ReLU LeakyReLU, PReLU(Parametric Relu), RReLU写在前面:神经网络为什么需要激活函数:首先数据的分布绝大多数是非线性的,而一般神经网络的计算是线性的,引入激活函数,是在神经网络中引入非线性,强化网络的学习能力。所以激活函数的最大特点就是
2021-03-17 02:32:10 491
转载 详解深度学习中的Dropout
1. Dropout简介1.1 Dropout出现的原因在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测准确率较低。过拟合是很多机器学习的通病。如果模型过拟合,那么得到的模型几乎不能用。为了解决过拟合问题,一般会采用模型集成的方法,即训练多个模型进行组合。此时,训练模型费时就成为一个很大的问题,不仅训练
2021-03-14 19:05:34 1041
原创 优化法——动量法
动量梯度下降(Gradient Descent With Momentum),简称为动量方法(Momentum),运行速度几乎总是快于标准的梯度下降算法,并且能够解决随机梯度下降所遇到的山谷震荡以及鞍部停滞问题,这部分内容请阅读上一篇博客梯度下降算法。根据梯度下降算法的参数更新公式:参数的更新仅仅取决于当前位置的梯度以及步长,试想一下这样一个情境:我们将某一个物品往山谷里丢,在梯度下降算法的规则下,该物品仅仅收到当前触碰在它身上的力,而忽略其他的力,例如重力、空气阻力等等。我们可以把它想象成一张
2021-03-13 18:33:22 1160
转载 一文看懂卷积神经网络-CNN(基本原理+独特价值+实际应用)
卷积神经网络 — CNN 最擅长的就是图片的处理。它受到人类视觉神经系统的启发。CNN 有2大特点:能够有效的将大数据量的图片降维成小数据量能够有效的保留图片特征,符合图片处理的原则目前 CNN 已经得到了广泛的应用,比如:人脸识别、自动驾驶、美图秀秀、安防等很多领域CNN 解决了什么问题?在 CNN 出现之前,图像对于人工智能来说是一个难题,有2个原因:图像需要处理的数据量太大,导致成本很高,效率很低 图像在数字化的过程中很难保留原有的特征,导致图像处理的准确率不高下面就详
2021-02-28 05:07:02 3031
原创 小议前馈神经网络(Feedforward Neural Network )
目录定义01 多层感知机(MLP)介绍02 深度神经网络的激活函数Sigmoid激活函数Tanh激活函数LReLU激活函数03 深度神经网络的损失函数均方误差损失函数交叉熵损失函数04 多层感知机的反向传播算法05 神经网络的训练技巧Data Augmentation参数初始化学习率Dropout原理Batch Normalization原理Regularizations(正则化)Model Ensemble(模型集成)06信息传.
2021-02-28 04:30:11 2867
关于社会计算的PPT学习资源
2020-05-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人