欢迎来到我的酒馆

人工智能基本人工

再学动态规划之 完全背包

LeetCode: https://leetcode.com/problems/coin-change/description/ 暴力搜索 考虑当前index 拿1张,2张,…时候,从index+1开始的最小张数。相加即可: import sys class Solution(object): ...

2018-10-16 20:42:07

阅读数 56

评论数 0

再学动态规划之 01背包

leetcode: https://leetcode.com/problems/partition-equal-subset-sum/description/ 写了之后,发现这题跟01背包还有点区别。但是写看这个吧。 暴力搜索的方法。就是每个取或者不去。 class Solution(objec...

2018-10-15 17:43:23

阅读数 77

评论数 0

再学动态规划之 上楼梯

leetcode: https://leetcode.com/problems/climbing-stairs/description/ 一道经典的动态规划题。听了左程云大神的课之后,重新审视一边动态规划。 我们先假设不知道动态规划方法,我们这样思考: f(n)=f(n−1)+f(n−2)f(n)...

2018-10-14 19:51:29

阅读数 74

评论数 0

论文笔记:Dual Path Networks

首先分析了 ResNet 和 DenseNet。 借鉴RNN的表达方式。 k: 当前处于哪个步 t:第t步 ht: 第t步的隐藏状态 :在第k步中,提取第t状态特征的函数 gk:第k步,转换聚合特征的函数   如果 , 那么可以写成: 简化成: 其中,。 如果, 那就...

2018-09-04 20:08:47

阅读数 100

评论数 0

论文笔记:Densely Connected Convolutional Networks

Dense Block: 每一层只增加 k = 4 个feature map 然后跟前面的所有concat,再 BN-->ReLU-->Conv   (一般k = 12)   整体结构: Dense Block之间是Conv和Pooling ...

2018-09-04 20:07:03

阅读数 70

评论数 0

python中逗号的三种用途

1.逗号在参数传递中的使用: 这种情况不多说 没有什么不解的地方 就是形参或者实参传递的时候参数之间的逗号 例如def abc(a,b)或者abc(1,2) 2.逗号在类型转化中的使用 主要是元组的转换 例如: a=11 b=...

2018-07-23 10:47:26

阅读数 462

评论数 0

线性回归

《动手学深度学习》上的例子 手动搭建一个能学线性回归的函数(神经网络) def data_generate(): '''产生真实数据,这里维度为2,个数1000。同时我们增加了扰动(测量误差)''' number_inputs = 2 #dimension of input ...

2018-07-20 14:56:45

阅读数 82

评论数 0

NDArray的一些性质

运算的内存开销 前⾯例⼦⾥我们对每个操作新开内存来储存它的结果。例如即使是 y = x + y 我们也会新创建 内存,然后再将 y 指向新内存。为了展⽰这⼀点,我们可以使⽤ Python ⾃带的 id 函数:如果两 个实例的 ID ⼀致,那么它们所对应的内存地址相同;反之则不同。 In...

2018-07-20 12:21:05

阅读数 143

评论数 0

MXNet入门

按照官网60分钟入门 Gluon 来学的。 ndarray 定义 手打普通数组: nd.array(((1,2,3),(5,6,7))) 自动填充: nd.ones((2,3)) 随机填充: nd.random.uniform(-1,1,(2,3)) 指定数组填充: nd.full...

2018-07-17 14:46:58

阅读数 501

评论数 0

正确率计算

def acc(output, label):     # output: (batch, num_output) float32 ndarray ...

2018-07-17 13:35:23

阅读数 324

评论数 0

caffe 同步与异步

主要是这两个遇到的问题,记录一下。 cpu_data与gpu_data 首先看到SyncedMemory的私有成员,有两个指针 cpu_ptr_cpu_ptr_cpu\_ptr\_ 和 gpu_ptr_gpu_ptr_gpu\_ptr\_ 。以及同步函数to_cpu()to_cpu()to...

2018-04-12 15:34:07

阅读数 197

评论数 0

中心极限定理

中心极限定理 中心极限定理指的是给定一个任意分布的总体。我每次从这些总体中随机抽取 n 个抽样,一共抽 m 次。 然后把这 m 组抽样分别求出平均值。 这些平均值的分布接近正态分布。 实验验证 写了代码 做实验 发现真的是这样。。 这里简单的用了均匀分布 import numpy as ...

2018-03-06 17:00:43

阅读数 543

评论数 0

偏差

摘自 《deep learning》

2018-03-05 22:06:06

阅读数 111

评论数 0

特殊类型的矩阵和向量

网络电子版 《深度学习》

2018-03-05 22:05:14

阅读数 254

评论数 0

期望、方差和协方差

摘自 网络电子版 《深度学习》

2018-03-01 15:41:24

阅读数 162

评论数 0

特征分解

摘自 网络电子版 《深度学习》

2018-03-01 10:31:32

阅读数 361

评论数 0

线性相关和生成子空间

摘自 网络电子版 《深度学习》 Ax=bAx=bAx=b

2018-02-28 16:51:08

阅读数 466

评论数 0

主流卷积神经网络

DenseNet 就没写了

2018-02-25 21:52:35

阅读数 123

评论数 0

max pooling in caffe

我们来看max pooling 在caffe 中怎么实现的吧reshape首先 reshap的时候: // If max pooling, we will initialize the vector index part. if (this->layer_param_.pooling_...

2017-11-21 09:17:02

阅读数 716

评论数 0

Convolution in Caffe

首先要知道,caffe里的卷积都是用的扩展之后的矩阵,“教学用”卷积方式,慢呀。具体就是im2col,思想如下: 也就是说,把feature map和kernel都拼成一个大的矩阵。 注意 此图有问题,有下面代码可以看出是其实是图中两个转置的相乘template <typename...

2017-11-20 11:35:43

阅读数 245

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭