自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Keith

知乎https://www.zhihu.com/people/keithyin/activities

  • 博客(196)
  • 资源 (2)
  • 论坛 (1)
  • 收藏
  • 关注

原创 tensorflow(四十七):tensorflow模型持久化

模型保存from tensorflow import graph_utilgraph_def = tf.get_default_graph().as_graph_def()# variable 搞成常量节点放到 graph_def 中。并按照 输出 节点进行剪枝constant_graph = graph_util.convert_variables_to_constants(sess, graph_def, .

2020-11-13 16:53:00 65

原创 tensorflow(四十六):传op name 还是tensor name

本文章对需要传 name 的一些api进行总结,明确下应该传的是 op name 还是 tensor namedef convert_variables_to_constants(sess, input_graph_def, output_node_names, # 这里传的是 op name va

2020-11-13 16:01:58 52

原创 golang:安装protobuf

下载 https://github.com/golang/protobuf 到 $GOPATH/src/github/golang/protobufcd $GOPATH/src/github/golang/git clone git@github.com:golang/protobuf.git下载 https://github.com/protocolbuffers/protobuf-go 到 $GOPATH/src/google.golang.org/protobufcd $GOPAT.

2020-11-07 10:00:12 123

原创 矩阵向量乘的三种几何解释

Ax=y Ax=y Ax=y的三中几何解释为:将AAA看做坐标系: 以 AAA 为 基的坐标 xxx, 在 III 中的坐标为yyy将 AAA 看做空间变换: III 中的点 xxx, 经过空间变换 AAA 后, 会落在哪个位置(以III为基)根据公式 x=A−1yx=A^{-1}yx=A−1y 可以看出第三种解释, 这个公式表示了3. 以 III 为基的点 yyy, 在坐...

2019-10-15 10:26:27 609

原创 python代码长度过长时候换行的几种方式

字符串过长# 三个双引号, print(a) 出来的是两行a = """hello worldhello world"""# 三个单引号, print(b) 出来的是两行b = ''' hello worldhello world'''# 使用 \ , print(c) 出来的是一行c = "hello " \ "world"'''表达式过长# 使用 \d ...

2019-09-30 12:12:35 6329

原创 Learning to Learn by Gradient Descent by Gradient Descent网络前向计算图

Learning to Learn By Gradient Descent by Gradient Descent 前向计算图(黄色线表示梯度流动方向)Optimization as a Model For Few-Shot Learning前向计算图(黄色表示梯度流动方向)...

2019-08-23 17:38:03 535

原创 python装饰器

从参考资料给的例子分析:def log(func): def wrapper(*args, **kw): print('call %s():' % func.__name__) return func(*args, **kw) return wrapper @log # 此时可以这么理解:调用了log方法,并将 now 作为实参传入,返...

2019-08-21 23:36:47 217

原创 sql:case when

select distinct Date,sum(case Result when '胜' then 1 else 0 end) as '胜',sum(case Result when '负' then 1 else 0 end) as '负'from testgroup by date(case FieldName when 'FieldValue' then 1 else 0 en...

2019-08-13 00:02:35 158

原创 git 一些undo操作

使用git的时候经常会出现,“啊!,刚才提交的代码有问题,需要undo一下了” 这种情况,为了应对这种问题。本文介绍 git 的一些 undo 操作在使用 git 时,可以分为4个工作区域:working area: 本机工作区staging area:当执行 git add时候,文件就会到 staging arealocal repo: 当执行 git commit 时候,文件就会 从...

2019-08-02 10:59:45 614

原创 conda 虚拟环境

# 列出所有虚拟环境conda env list# 创建虚拟环境conda create -n name python=3.6# 删除虚拟环境conda remove -n name# 进入虚拟环境source activate name (或者 conda activate name)# 退出虚拟环境source deactivate (或者 conda deactiv...

2019-07-28 14:16:12 155

原创 Vundle :PluignInstall时看不到.vimrc中所有的 插件

# 打开 vimrcvim .vimrc# vim命令模式下 输入 :so % 回车执行# vim命令模式下 然后再 :PluginInstall 就可以了参考资料https://vi.stackovernet.com/cn/q/1391

2019-07-24 14:41:24 140

原创 ubuntu下 octave安装image-acquisition

sudo apt-get install liboctave-devsudo apt-get install v4l-utilssudo apt-get install libfltk1.3-dev在octave命令行执行 pkg install -forge image-acquisition参考资料https://wiki.octave.org/Image_acquisition...

2019-01-18 23:32:42 437

原创 pytorch 学习笔记(二十二):关于 inplace operation

原文发表在 知乎上 在这里就做一下同步吧。 (本文章适用于 pytorch0.4.0 版本, 既然 Variable 和 Tensor merge 到一块了, 那就叫 Tensor吧)在编写 pytorch 代码的时候, 如果模型很复杂, 代码写的很随意, 那么很有可能就会碰到由 inplace operation 导致的问题. 所以本文将对 pytorch 的 inplace operat...

2018-06-26 18:58:54 12576 3

原创 python3 sorted 如何自定义排序标准

在 python2 中,如果想要自定义评价标准的话,可以这么做def cmp(a, b): # 如果逻辑上认为 a < b ,返回 -1 # 如果逻辑上认为 a > b , 返回 1 # 如果逻辑上认为 a == b, 返回 0 passa = [2,3,1,2]a = sorted(a, cmp)但是在 python3 中,cmp 这个参数已经被移...

2018-04-15 20:42:31 16441

原创 维特比算法

统计学习方法 (李航) 维特比算法例题 的代码实现, (HMM 预测)import numpy as npnum_hidden_states = 3num_observations = 2 # 红, 黑obs_map = {'红': 0, '白': 1}# matrix[t-1, t] ===> t-1 --> ttransition_matrix = np.array...

2018-04-08 16:41:43 762

原创 pytorch学习笔记(二十一): 使用 pack_padded_sequence

在使用 pytorch 的 RNN 模块的时候, 有时会不可避免的使用到 pack_padded_sequence 和 pad_packed_sequence, 当使用双向RNN的时候, 必须要使用 pack_padded_sequence !! .否则的话, pytorch 是无法获得 序列的长度, 这样也无法正确的计算双向 RNN/GRU/LSTM 的结果.但是在使用 pack_padd...

2018-03-29 21:20:40 18009 6

原创 ssh使用记录

指定端口登录 ssh -p port username@ip将远程端口映射到本地 ssh -N -f -L localhost:8889:localhost:8888 username@ip 这时访问本地的 8889端口 等同与 访问 远程的 8888 端口 对应windows putty的配置方法ssh -N -f -L localhost:8889:ip2:8888 use...

2018-03-22 22:56:07 1192

原创 pytorch学习笔记(二十): ignite (写更少的代码训练模型)

此图片已过期, 2018.04.04版本, 已经没有 Trainer 和 Evaluator 类, 就只剩下一个 Engine 类最近自己想写一个高级一点的抽象来更方便的训练 pytorch 网络, 无意间发现, pytorch 用户下面有个 ignite repo, 好奇就看了一下这是个什么东西. 原来是 pytorch 已经提供了一个高级抽象库来训练 pytorch模型了, 既然有了轮...

2018-03-16 23:42:34 7797 3

原创 机器学习-音频资料总结

[1] Filter Banks And MFCC [2] Speech Recognization with Deep Learning [3] Digital Audio Fundamentals [4] ()

2018-03-13 17:40:54 1660

转载 数字音频基础知识

了解声音声波声音始于空气中的振动,如吉他弦、人的声带或扬声器纸盆产生的振动。这些振动一起推动邻近的空气分子,而轻微增加空气压力。压力下的空气分子随后推动周围的空气分子,后者又推动下一组分子,依此类推。高压区域穿过空气时,在后面留下低压区域。当这些压力波的变化到达人耳时,会振动耳中的神经末梢,我们将这些振动听为声音。当您看到表示音频的可视化波形时,它反映了这些空气压力波。波形中的零位...

2018-03-13 17:27:46 4616

原创 tf-idf

TF-IDF 是为了解决 document 中 term 的权重问题。TF (term frequency)将一个 document 中的每一个 term 都赋予一个权重,最简单的方法就是将 term 在此 document 中出现的次数。用频数表示权重的方法叫做 TF,数学表示为:tft,d\text{tf}_{t,d} ,表示 “document” d 中 “term” t 出现的次数。I

2018-02-20 17:40:28 470

翻译 使用 spacy 进行自然语言处理(一)

介绍自然语言处理(NLP) 是人工智能方向一个非常重要的研究领域。 自然语言处理在很多智能应用中扮演着非常重要的角色,例如:automated chat bots,article summarizers,multi-lingual translationopinion identification from data每一个利用NLP来理解非结构化文本数据的行业,不仅要求准确,而且在获取结果

2018-02-13 13:09:42 38260 4

原创 pytorch学习笔记(十九):torchtext

文章部分翻译自 http://anie.me/On-Torchtext/ API一览torchtext.datatorchtext.data.Example : 用来表示一个样本,数据+标签torchtext.vocab.Vocab: 词汇表相关torchtext.data.Datasets: 数据集类,__getitem__ 返回 Example实例torchtext...

2018-02-11 13:47:04 36105 18

原创 pytorch学习笔记(十八):C 语言扩展 pytorch

上篇博文已经介绍了如何通过 继承 Function ,然后使用python 来扩展 pytorch, 本文主要介绍如何通过 cffi 来扩展 pytorch 。官网给出了一个 MyAdd 的 Demo github地址,本文通过 这个 Demo 来搞定如何 通过 cffi 来扩展 pytorch。从github上clone下来代码,目录结构是这样的package:script:(这个部分的示例

2017-12-20 11:22:11 4667 2

原创 pytorch学习笔记(十七):python 端扩展 pytorch

pytorch 虽然提供了很多的 op 使得我们很容易的使用。但是当已有的 op 无法满足我们的要求的时候,那就需要自己动手来扩展。 pytorch 提供了两种方式来扩展 pytorch 的基础功能。 通过继承 autograd.Function通过 C 来扩展本篇博客主要介绍 继承 autograd.Function 来扩展 pytorch。官方文档链接继承 autograd.Functio

2017-12-18 02:56:07 9644 4

原创 pytorch学习笔记(十六):pytorch 写代码时应该注意

当网络中有 dropout,bn 的时候。训练的要记得 net.train(), 测试 要记得 net.eval()在测试的时候 创建输入 Variable 的时候 要记得 volatile=Truetorch.sum(Tensor), torch.mean(Tensor) 返回的是 python 浮点数,不是 Tensor。在不需要 bp 的地方用 Tensor 运算。

2017-11-24 13:14:08 3702

原创 C 中内存的一些操作

分配内存与释放内存 在C 中,下列函数的声明在 stdlib.h 中,在 C++, 声明在 cstdlib 中mallocrealloccallocfree , 释放分配的内存(分配的内存块的头部记录了当前分配内存块的大小)一、 malloc malloc(memory allocate)在堆上分配内存, 分配内存块函数原型为:void* malloc(size_t size);

2017-11-19 23:37:57 420

原创 pytorch学习笔记(十五):pytorch 源码编译碰到的坑总结

2017.11.17最近打算学习一下 pytorch 源码,所以按照官网的教程从头编译了一下 pytorch 。在编译的过程中,碰到了两个坑,在这里记录一下。第一个错误CMakeFiles/Makefile2:264: recipe for target 'src/ATen/test/CMakeFiles/scalar_test.dir/all' failedmake[1]: *** [src

2017-11-17 09:10:19 12669

原创 pytorch学习笔记(十四): DataLoader源码阅读

pytorch 数据加载部分的 接口可以说是现存 深度学习框架中设计的最好的, 给了我们足够的灵活性。本博文就对 pytorch 的多线程加载 模块(DataLoader) 进行源码上的注释。输入流水线pytorch 的输入流水线的操作顺序是这样的:创建一个 Dataset 对象创建一个 DataLoader 对象不停的 循环 这个 DataLoader 对象 d...

2017-11-15 22:18:59 25449 5

原创 pytorch学习笔记(十三):backward过程的底层实现解析

博主水平有限,如有错误,请不吝指出。pytorch源码注释,欢迎 pr,提 issue 和 star当我们使用 pytorch 的 python 的接口编写代码的时候,感觉是十分清爽的,不需要考虑底层的实现。但是好奇心驱使我们 想一探究竟,看看底层 C/C++ 那部分到底做了什么。本篇文章主要专注于:pytorch 是如何动态构建反向传导图的pytorch 的反向传导是怎么操作...

2017-11-12 12:05:53 7202 3

原创 C/C++ 预处理器

预处理是在 程序编译之前进行的一步操作。翻译程序这个操作是 预处理之前 的操作,在 预处理 之前,编译器会对源代码会进行一些翻译操作:将源代码中出现的字符映射到 源字符集。查找 反斜线 (\) 后 紧跟 换行符 (回车键产生的字符)的 实例,并删除这些实例。编译器将文本划分为:语言符号(token) 序列,空白字符序列,注释序列。(token:空格分隔的组) 编译器用一个 空白字符 代替

2017-10-20 17:06:07 1940

原创 tensorflow学习笔记(四十五):sess.run(tf.global_variables_initializer()) 做了什么?

当我们训练自己的神经网络的时候,无一例外的就是都会加上一句 sess.run(tf.global_variables_initializer()) ,这行代码的官方解释是 初始化模型的参数。那么,它到底做了些什么?一步步看源代码:global_variables_initializer 返回一个用来初始化 计算图中 所有global variable的 op。 这个op 到底是啥,还不清楚。函

2017-10-20 09:05:13 60277 16

原创 pytorch学习笔记(十二):详解 Module 类

pytorch: ModuleModule 是 pytorch 提供的一个基类,每次我们要 搭建 自己的神经网络的时候都要继承这个类,继承这个类会使得我们 搭建网络的过程变得异常简单。本文主要关注 Module 类的内部是怎么样的。初始化方法中做了什么def __init__(self): self._backend = thnn_backend self._parameters =

2017-10-19 10:35:02 28160 2

原创 tensorflow学习笔记(四十四):用Queue保存更复杂的关系

当查看 tensorflow 中提供的 Queue 的类的时候,会发现有个 dtypes 参数,这个参数代表 Queue 中元素是什么类型的,如果 dtypes=[tf.string, tf.int64] ,这个表示,Queue 中每个元素是 (string, int) 。import tensorflow as tfqueue = tf.FIFOQueue(capacity=100, dtypes

2017-10-17 12:22:36 729

原创 c++复杂声明

void (*funcPtr)();上面声明了一个指向函数的指针,当碰到这样一个比较复杂的声明时,最好的方法是从 中间开始和向外扩展:从中间开始:即 从变量名开始像外扩展:即 先注意右边最近的项,已右括号结束,再注意左边的项,已左括号结束,再注意右边的项。。。用上述方法来解析一下第一个声明:往右看:是右括号,结束往左看:funcPtr是个指针往左看:碰到左括号,结束往右看:指针指向一个

2017-10-12 13:15:21 253

原创 MXNET学习笔记(二):模型的保存与加载

当序列化 NDArray 的时候,我们序列化的是NDArray 中保存的 tensor 值。当序列化 Symbol 的时候,我们序列化的是 Graph。Symbol序列化当序列化 Symbol 的时候,通常使用 json 文件作为序列化后的文件,因为可读性好。import mxnet as mxa = mx.sym.Variable('a', shape=[2,])b = mx.sym.Vari

2017-10-08 12:48:23 12968

原创 MXNET学习笔记(一):Module类(1)

mxnet : Module 类(一)Module 是 mxnet 提供给用户的一个高级封装的类。有了它,我们可以很容易的来训练模型。Module 包含以下单元的一个 wrapersymbol : 用来表示网络前向过程的 symbol。optimizer: 优化器,用来更新网络。exec_group: 用来执行 前向和反向计算。…所以 Module 可以帮助我们做前向计算,(由 exec

2017-09-28 12:49:16 1766 1

原创 mxnet-Gluon(一):mxnet-Gluon 入门

mxnet Gluon 无痛入门沐神已经提供了一份官方的文档,为什么要写这么一篇博客: 沐神提供的中文文档质量是非常高的,地址,但是感觉需要看一段时间才能上手 Gluon, 本博客结构模仿 pytorch 的60分钟入门博客编写,旨在用最快的时间可以直接上手Gluon。同时也可以对Gluon的几个重要模块进行一下总结,以后查询方便。 (博主水平有限,如有错误,请不吝指出。)下面进入正题:mxnet

2017-09-21 01:47:42 21224 2

原创 pytorch学习笔记(十一):fine-tune 预训练的模型

pytorch : fine-tune torchvision 中预训练的模型torchvision 中包含了很多预训练好的模型,这样就使得 fine-tune 非常容易。本文主要介绍如何 fine-tune torchvision 中预训练好的模型。安装pip install torchvision如何 fine-tune以 resnet18 为例:from torchvision import

2017-09-20 10:42:59 27820 11

原创 softmax交叉熵与最大似然估计

# softmax 交叉熵与最大似然估计其实我们常用的 softmax 交叉熵损失函数,和 最大似然估计是等价的。首先来看 softmax 交叉熵目标函数是什么样子的: 对于N个样本 obj=−∑nNy(n)jlogf(x(n);w)j=−∑nNlogf(x(n);w)j\begin{aligned}obj &= -\sum_n^N y^{(n)}_j\log f(x^{(n)};w)_j

2017-09-16 21:11:35 2761 6

韩顺平2011servlet笔记

韩顺平2011servlet笔记,详细笔记,也是从网上找的,拿出来分享一下

2013-11-11

2016_NIPS_VI_tutorial

2016 NIPS 上 关于 varitional inference的toturial

2017-02-15

ke1th的留言板

发表于 2020-01-02 最后回复 2020-01-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除