这题我会啊
码龄8年
关注
提问 私信
  • 博客:196,765
    196,765
    总访问量
  • 86
    原创
  • 2,232,028
    排名
  • 76
    粉丝
  • 0
    铁粉

个人简介:人工智能基本人工

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:浙江省
  • 加入CSDN时间: 2017-03-16
博客简介:

欢迎来到我的酒馆

博客描述:
人工智能基本人工
查看详细资料
个人成就
  • 获得63次点赞
  • 内容获得22次评论
  • 获得164次收藏
创作历程
  • 1篇
    2020年
  • 18篇
    2018年
  • 78篇
    2017年
成就勋章
TA的专栏
  • Algorithm
    15篇
  • deep-learning
    21篇
  • machine-learning
    24篇
  • data-mining
    1篇
  • caffe
    11篇
  • paper
    10篇
  • C++
    12篇
  • cpt-vision
    5篇
  • other
  • math
    6篇
  • mxnet
    4篇
  • python
    1篇
创作活动更多

如何做好一份技术文档?

无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

342人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

相机与世界(一)

齐次坐标系引入齐次坐标可以让级联的仿射变换变成矩阵连乘。n+1维齐次坐标是对n维奇卡尔坐标的扩展。[xy]=[xy1]=[2x2y2]=[wxwyw]\begin{bmatrix}x\\y\end{bmatrix}=\begin{bmatrix}x\\y\\1\end{bmatrix}=\begin{bmatrix}2x\\2y\\2\end{bmatrix}=\begin...
原创
发布博客 2020.02.29 ·
361 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

再学动态规划之 完全背包

LeetCode: https://leetcode.com/problems/coin-change/description/暴力搜索考虑当前index 拿1张,2张,…时候,从index+1开始的最小张数。相加即可:import sysclass Solution(object): def get_small_number(self, coins, index, amoun...
原创
发布博客 2018.10.16 ·
317 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

再学动态规划之 01背包

leetcode: https://leetcode.com/problems/partition-equal-subset-sum/description/写了之后,发现这题跟01背包还有点区别。但是写看这个吧。暴力搜索的方法。就是每个取或者不去。class Solution(object): def getS(self, arr, index, target): if...
原创
发布博客 2018.10.15 ·
461 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

再学动态规划之 上楼梯

leetcode: https://leetcode.com/problems/climbing-stairs/description/一道经典的动态规划题。听了左程云大神的课之后,重新审视一边动态规划。我们先假设不知道动态规划方法,我们这样思考:f(n)=f(n−1)+f(n−2)f(n) = f(n-1)+f(n-2)f(n)=f(n−1)+f(n−2)然后就很自然的写出下面的递归解法...
原创
发布博客 2018.10.14 ·
367 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

论文笔记:Dual Path Networks

首先分析了 ResNet 和 DenseNet。 借鉴RNN的表达方式。k: 当前处于哪个步t:第t步ht: 第t步的隐藏状态:在第k步中,提取第t状态特征的函数gk:第k步,转换聚合特征的函数 如果 , 那么可以写成:简化成:其中,。 如果, 那就是RNN。 如果不共享,就是ResNet。 如果  不满足,就是DenseNet ...
原创
发布博客 2018.09.04 ·
711 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

论文笔记:Densely Connected Convolutional Networks

Dense Block: 每一层只增加 k = 4 个feature map 然后跟前面的所有concat,再 BN-->ReLU-->Conv   (一般k = 12) 整体结构: Dense Block之间是Conv和Pooling Bottleneck layers:尽管每次只增加k个,但是到后来还是很大,所以,采用Bottleneck,即BN-ReL...
原创
发布博客 2018.09.04 ·
408 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

python中逗号的三种用途

1.逗号在参数传递中的使用: 这种情况不多说 没有什么不解的地方 就是形参或者实参传递的时候参数之间的逗号 例如def abc(a,b)或者abc(1,2)2.逗号在类型转化中的使用 主要是元组的转换 例如: a=11 b=(a) b 11 b=(a,) b ...
转载
发布博客 2018.07.23 ·
5606 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

线性回归

《动手学深度学习》上的例子手动搭建一个能学线性回归的函数(神经网络)def data_generate(): '''产生真实数据,这里维度为2,个数1000。同时我们增加了扰动(测量误差)''' number_inputs = 2 #dimension of input num_examples = 1000 true_w = [2, -3.4] ...
原创
发布博客 2018.07.20 ·
386 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

NDArray的一些性质

运算的内存开销前⾯例⼦⾥我们对每个操作新开内存来储存它的结果。例如即使是 y = x + y 我们也会新创建 内存,然后再将 y 指向新内存。为了展⽰这⼀点,我们可以使⽤ Python ⾃带的 id 函数:如果两 个实例的 ID ⼀致,那么它们所对应的内存地址相同;反之则不同。In [24]: before = id(y) y = y + x i...
原创
发布博客 2018.07.20 ·
409 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

MXNet入门

按照官网60分钟入门 Gluon 来学的。ndarray定义手打普通数组: nd.array(((1,2,3),(5,6,7)))自动填充: nd.ones((2,3))随机填充: nd.random.uniform(-1,1,(2,3))指定数组填充: nd.full((2,3),2.0)ndarray也有属性: In: (X.shape, X.size...
原创
发布博客 2018.07.17 ·
1554 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

正确率计算

def acc(output, label):     # output: (batch, num_output) float32 ndarray     # label: (batch, ) int32 ndarray   &
原创
发布博客 2018.07.17 ·
2301 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

caffe 同步与异步

主要是这两个遇到的问题,记录一下。cpu_data与gpu_data首先看到SyncedMemory的私有成员,有两个指针 cpu_ptr_cpu_ptr_cpu\_ptr\_ 和 gpu_ptr_gpu_ptr_gpu\_ptr\_ 。以及同步函数to_cpu()to_cpu()to\_cpu() to_gpu()to_gpu()to\_gpu() cpu_data与gpu_d...
原创
发布博客 2018.04.12 ·
605 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

中心极限定理

中心极限定理中心极限定理指的是给定一个任意分布的总体。我每次从这些总体中随机抽取 n 个抽样,一共抽 m 次。 然后把这 m 组抽样分别求出平均值。 这些平均值的分布接近正态分布。实验验证写了代码 做实验 发现真的是这样。。 这里简单的用了均匀分布import numpy as npimport matplotlib.pyplot as pltrandom_data = n...
原创
发布博客 2018.03.06 ·
1413 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

偏差

摘自 《deep learning》
原创
发布博客 2018.03.05 ·
321 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

特殊类型的矩阵和向量

网络电子版 《深度学习》
原创
发布博客 2018.03.05 ·
1013 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

期望、方差和协方差

摘自 网络电子版 《深度学习》
原创
发布博客 2018.03.01 ·
490 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

特征分解

摘自 网络电子版 《深度学习》
原创
发布博客 2018.03.01 ·
619 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

线性相关和生成子空间

摘自 网络电子版 《深度学习》 Ax=bAx=bAx=b
原创
发布博客 2018.02.28 ·
1103 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

主流卷积神经网络

DenseNet 就没写了
原创
发布博客 2018.02.25 ·
450 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

max pooling in caffe

我们来看max pooling 在caffe 中怎么实现的吧reshape首先 reshap的时候: // If max pooling, we will initialize the vector index part. if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX
原创
发布博客 2017.11.21 ·
1951 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多