自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(34)
  • 收藏
  • 关注

原创 如何写出一篇出色的论文

本篇文章是观看完油管上“如何写出一篇出色的论文”的总结油管地址:https://www.youtube.com/watch?v=VK51E3gHENc如何写出一篇出色的论文?演讲者在七个方面来告诉我们如何写:Don‘t wait:writeIdentify your key ideaTell a storyNail your contributionsRelated work:laterPut your readers first(examples)Listen to your read

2021-06-06 15:08:41 265 1

原创 高纬度思考法_读后感

《高纬度思考法》的核心:通过提高思考的维度,发现问题并创造性解决问题。本书主要讲了三个方面的内容:认知的三个领域解决问题思维转变到发现问题思维三种提升思考维度的方法1、认知的三个领域书中提出思考时要将“知”的世界分成“已知的已知”、“已知的未知”、“未知的未知”三个领域:已知的已知(knownknowns)——知道自己知道的知识:问题和答案都已知已知的未知(knownunknowns)——知道自己不知道的知识:问题已知而答案未知未知的未知(unknownunknowns)

2021-06-02 15:25:12 766

转载 卷积神经网络中十大拍案叫绝的操作(转载)

链接:https://zhuanlan.zhihu.com/p/28749411

2021-05-18 16:05:35 178

原创 Gaussian Smoothing(高斯平滑)

高斯平滑操作是一个二维卷积操作,用于**“模糊”**图像,去除细节和噪音。它类似于均值滤波器(假如3X3,则全部相加取均值,即成为中间点的像素值),但它使用不同的核表示高斯驼峰的形状。二维高斯公式平均值(0,0) 和σ=1...

2021-04-27 14:50:23 12359

原创 VideoLSTM和Time-Aligned DenseNet

目录VideoLSTMIntroduction网络结构Conv LSTM结构attention map的计算attention map 和 feature map的结合分析VideoTimeVideoLSTM论文下载:https://arxiv.org/pdf/1607.01794.pdf本文的主要创新点是在Attention LSTM的基础上引入了Conv LSTM。本文将Conv LSTM + Attention的结构称为VideoLSTMIntroduction我们知道Conv-LSTM是在

2021-04-21 01:16:02 272 1

原创 Inception笔记

目录1. Inception-v11.1 为什么提出Inception1.2 网络结构1.3 作用1.4 GoogLeNet2. Inception-v22.1 创新点2.1.1 Batch Normalization2.1.2 拆分卷积核2.2 作用3. Inception-v33.1 问题3.2 解决方法4. Inception-v41. Inception-v1论文链接:Going deeper with convolutions1.1 为什么提出Inception一般来说,提升网络性能最保险

2021-04-12 19:29:18 667 1

原创 2020年最新SCI期刊影响因子以及JCR分区表

这是我自己整理的SCI和SCIE期刊的影子因子和JCR分区表,内有Journal Impact Factor、Impact Factor without Journal Self Cites、5-Year Impact Factor以及分区序列号Full Journal TitleJournal Impact FactorImpact Factor without Journal Self Cites5-Year Impact Factor分区1ACM COMPUTING

2021-01-30 11:54:30 29601 2

原创 网络结构总结

网络结构总结1、ResnetResNet模型的核心是通过建立前面层与后面层之间的“短路连接”,这有助于训练过程中梯度的反向传播,从而能训练出更深的CNN网络。更多的层不一定有更好的acc,会出现两个问题:梯度消失和梯度爆炸:对输入数据和中间层的数据进行归一化操作即可退化问题:网络层深度开始增加时候,acc达到饱和状态然后迅速下降。也就是说,在我们的网络达到某一个深度的时候,咱们的网络已经达到最优状态了,再加深网络就会出现退化问题。但是使用残差网络就能很好的解决这个问题。假设当前网络的深度能够

2020-12-15 12:20:09 682

原创 TSM源码解析

1 源码准备git clone https://github.com/mit-han-lab/temporal-shift-module2 源码结构文件名称功能作用main.py训练脚本test_model.py测试脚本dataset.py数据的读取和处理models.py网络模型的构建mypath.py数据模型路径自定义transforms.py数据的预处理temporal_shift.py时序移位模块dataset_co

2020-10-10 17:38:15 3710 3

原创 C3D源码解析

1、源码准备git clone https://github.com/jfzhang95/pytorch-video-recognition下载完成后,即可得到__C3D-pytorch__版本的源码2、源码结构文件名称功能作用dataset.py数据准备C3D_model.py模型网络结构构建train.py网络模型训练inference.py数据预处理mypath.py数据模型路径自定义3、源码分析代码可主要分为__数据__,__模

2020-09-28 17:18:40 1478 1

原创 Pytorch学习记录笔记

toch.max(input,dim)输入: input是tensor,dim是max函数索引的维度,0表示每列的最大值,1表示每行的最大值输出: 函数会返回两个tensor,第一个tensor是每行的最大值,softmax的输出中最大的是1,所以第一个tensor是全1的tensor;第二个tensor是每行最大值的索引。_, predicted = torch.max(outputs.data, 1)## 下划线表示不在乎返回的第一个tensor值。只想得到第二个tensortorch.

2020-08-09 11:35:11 203

转载 Pytorch之Tensor和Numpy之间的转换

https://blog.csdn.net/shey666/article/details/85337212?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522159685445219725219938101%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=159685445219725219938101&biz_id=0&u

2020-08-08 10:48:57 394

原创 安装mmcv踩坑记录

碰到五花八门的问题,gcc、lang报错。最终,用以下方法解决了macos无法安装mmcv的问题由于我的OSX版本是10.15,所以在终端输入···export MACOSX_DEPLOYMENT_TARGET=10.15···问题完美解决

2020-08-07 17:37:43 2044

原创 Pytorch简介和张量Tensor

张量Tensor各种数值数据统称为张量常量:scaler:0阶张量向量:vector:1阶张量矩阵:matrix:2阶张量一、使用:使用python列表或者序列创建tensor(是浮点型)torch.tensor([1,2,3])numpy生成再转换为tensortorch.tensor(np.array([[1,2,3],[4,5,6]]))使用torch的api创建tensor1、torch.empty(3,4)创建3行4列的的为空的tensor,会用无用数据进行

2020-08-03 15:02:01 616

转载 【Mac OS】Anaconda+PyCharm搭建PyTorch环境

https://blog.csdn.net/libing_zeng/article/details/96615716

2020-07-26 10:43:16 275

转载 tf.truncated_normal()与tf.random_normal()的区别

https://blog.csdn.net/cuicheng01/article/details/80017900?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.edu_weight&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.edu

2020-07-22 17:25:18 204

原创 Tensorflow学习和应用(9)_卷积CNN应用MNIST

概念补代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataimport os ##忽略AVX扩展警告os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'mnist = input_data.read_data_sets('MNIST_data', one_hot=True)# 每个批次的大小batch_size = 100# 计算一共有多少个批

2020-07-12 17:21:24 192

原创 Tensorflow学习和应用(8)_tensorboard可视化

代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datafrom tensorflow.contrib.tensorboard.plugins import projectorimport os ##忽略AVX扩展警告os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'# 载入mnist数据集mnist = input_data.read_data_set

2020-07-12 15:42:42 140

原创 Tensorflow学习和应用(7)_tensorboard

代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("MNIST_data",one_hot=True)#每个批次的大小(每次训练的图片数)batch_size = 100#计算一共有多少个批次n_batch = mnist.train.num_examples#命名空间with tf.n

2020-07-12 13:28:38 114

原创 Tensorflow学习和应用(6)_dropout

概念为防止过拟合,可用dropout,通过keep_prob来控制参与的神经元的百分比Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了函数说明tf.nn.dropout( x, keep_prob, noise_shape=None, seed=None, nam

2020-07-12 10:31:39 218 1

原创 Tensorflow学习和应用(5)_MNIST数据集

代码import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("MNIST_data",one_hot=True)#每个批次的大小(每次训练的图片数)batch_size = 100#计算一共有多少个批次n_batch = mnist.train.num_examples #定义两个placehold

2020-07-11 17:04:27 130

原创 Tensorflow学习和应用(4)_非线性回归

代码import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt# 使用numpy生成200个随机点# 从-0.5到0.5范围均匀取200个点# np.newaxis增加维度# 最终成为200*1的数据x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]noise = np.random.normal(0, 0.02, x_data.shape) #

2020-07-11 15:18:54 190

转载 tensorflow_placeholder

https://blog.csdn.net/zhangshaoxing1/article/details/68957896?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.edu_weight&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1

2020-07-11 10:47:45 142

原创 Tensorflow学习和应用(3)_拿(fetch)和喂(feed)以及线性函数

拿(fetch)和喂(feed)代码import tensorflow as tfimport os ##忽略AVX扩展警告os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'#Fetchinput1 = tf.constant(3.0)input2 = tf.constant(2.0)input3 = tf.constant(5.0)add = tf.add(input2,input3)mul = tf.multiply(input1,add)w

2020-07-09 10:55:34 221

转载 tensorflow中 tf.reduce_mean函数

https://blog.csdn.net/dcrmg/article/details/79797826

2020-07-09 10:25:10 206 1

原创 Tensorflow学习和应用(2)_变量

变量(Variable)的概念在TensorFlow中,变量(Variable)是特殊的张量(Tensor),它的值可以是一个任何类型和形状的张量。与其他张量不同,变量存在于单个 session.run 调用的上下文之外,也就是说,变量存储的是持久张量,当训练模型时,用变量来存储和更新参数。注意在调用op之前,所有变量都应被显式地初始化才行。init = tf.global_variables_initializer()#全局变量初始化代码import tensorflow as tfi

2020-07-09 09:30:12 134

原创 Tensorflow学习和应用(1)

Tensorflow基本概念使用图(graphs)来表示计算任务在被称之为会话(session)的上下文(context)中执行图使用tensor表示数据使用变量(Variable)维护状态使用feed和fetch可以为任意的操作赋值或者从其中获取数据TensorFlow是一个编程系统,使用图(graphs)来表示计算任务,图中的节点称之为op(operation),一个op获得0个或多个tensor,执行计算,产生0个或多个tensor,tensor看作是一个n维的数组或列表。图必须在会

2020-07-09 09:03:54 161

原创 CS231n 图像分类

图像分类目标:例子困难和挑战图像分类流程Nearest Neighbor分类器k-Nearest Neighbor分类器用于超参数调优的验证集Nearest Neighbor分类器的优劣小结目标:就是在已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像例子以下图为例,图像分类模型读取该图片,并生成该图片属于集合{dog,cat,hat,mug}中各个标签的概率。对于计算机来说,图像是一个由数字组成的巨大的三维数组,图像大小分别有自己对应的像素

2020-07-01 12:45:46 248

原创 tensorboard初使用

Tensorboard的使用编辑一段代码运行完成后,运行的.py文件夹中会出现logs文件夹打开终端,cd到该文件夹(注意是logs所在的文件夹)输入tensorboard --logdir='logs/'编辑一段代码import tensorflow as tfdef add_layer(inputs, in_size, out_size, activation_function=None): # add one more layer and return the output of t

2020-06-30 17:03:49 383

原创 tensorflow初训练

from __future__ import print_functionimport tensorflow as tfimport numpy as np# create datax_data = np.random.rand(100).astype(np.float32)y_data = x_data*0.1 + 0.3### create tensorflow structure start ###Weights = tf.Variable(tf.random_uniform([1]

2020-06-30 16:14:15 91

原创 MACOS快速安装tensorflow方法

MacOS系统推荐快速安装tensorflow方法在MACOS端终端安装tensorflow总会出现网络断连好不容易下了几个小时到一半的tensorflow付之东流或者pip版本不够的问题,以下为快速在mac端快速安装tensorflow的方法。pip install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow==1.5.0 ##注意这里的版本安装时候注意python的版本,下载对应的tensorflow接下来不到一分钟即可查看自己

2020-06-30 15:58:13 4153

转载 Ubuntu20.04 安装Anaconda3+TensorFlow

安装Anaconda31、下载官方下载地址:https://www.anaconda.com/products/individual页面最下方找到Linux版本,选择第一个下载。2、安装找到下载好的压缩包所在文件夹,打开终端,执行命令:bash Anaconda3-2020.02-Linux-x86_64.sh一路回车+yes;3、验证在终端输入下面命令查看python版本:python3如果出现上图显示的“Anaconda”,说明配置成功,否则需要重新配置环境变量。4、重新

2020-06-29 16:26:35 3005 6

原创 ubuntu sudo apt-get update时执行失败应该怎么办

命中:1 http://security.ubuntu.com/ubuntu focal-security InRelease 命中:2 http://us.archive.ubuntu.com/ubuntu focal InRelease 命中:3 http://us.archive.ubuntu.com/ubuntu focal-updates InRelease命中:4 http://us.archive.ubuntu.com/ubuntu focal-

2020-06-29 14:21:50 1923

原创 python 内置函数max()和min()的用法

python 内置函数max()和min()的用法1、类型是纯数字,则选择其中最大/最小的数字>>> max(1,2,3)3>>> min(1,2,3)12、类型是字符串,选取字符串内最大/小的字母>>> a = '1,2,3,4'>>> max(a)'4'>>> min(a)//这里面最小的是逗号','>>> a = '1234'>>> min(a)'

2020-06-29 12:08:15 5599 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除