杂记
maocaisheng
Image Restoration
展开
-
面试知识点总结2
决策树怎么解决回归问题?切分点选择:最小二乘法;输出值:单元内均值。示意图:假设X和Y分别为输入和输出变量,并且Y是连续变量,给定训练数据集为D={(x1,y1),(x2,y2),...,(xN,yN)}D=\left \{ (x_1,y_1 ),(x_2,y_2 ),...,(x_N,y_N) \right \}D={(x1,y1),(x2,y2),...,(xN,yN)...原创 2019-09-05 09:54:40 · 128 阅读 · 0 评论 -
面试知识点总结1
c++的行指针、列指针卷积底层的实现方式(如caffe里面的img2col)推导逻辑回归的损失函数和梯度计算sigmoid函数及其导数:h(x)=11−e−xh′(x)=h(x)⋅[1−h(x)]h(x)=\frac{1}{1-e^{-x}}\\h'(x)=h(x)\cdot[1-h(x)]h(x)=1−e−x1h′(x)=h(x)⋅[1−h(x)]前向:zi...原创 2019-09-04 16:03:00 · 149 阅读 · 0 评论 -
2019年面试经历
网易游戏caffe 中的卷积是怎么实现的。只答了img2col函数,将卷积操作变成矩阵乘,具体如何变 没答上来。caffe 中最常用的数据类型是什么?Blob,存储值和梯度。VGG 相比AlexNet 改进了什么?7×77\times 77×7卷积变成了3个3×33\times 33×3卷积,减少了参数量,增加了非线性。为什么不是2×22\times 22×2?没有...原创 2019-08-20 16:32:50 · 108 阅读 · 0 评论 -
CornerNet-Lite参数说明
db config...{'ae_threshold': 0.3, 'att_max_crops': 30, 'att_nms_ks': [3, 3, 3], 'att_ranges': [[96, 256], [32, 96], [0, 32]], #对应大中小三个尺度的范围 'att_ratios': [16, 8, 4], 'att_scales': [[1, 2, 4]], ...原创 2019-05-27 10:09:54 · 1175 阅读 · 0 评论 -
Ubuntu 16: Detecron + Caffe2 安装
先贴下官网教程推荐的环境:CUDA 8.0.61 + Cudnn 6.0(必须的,推荐官网的.run形式安装)Anaconda python=2.7 (推荐使用conda 自带的包管理,即:conda install )首先:更新或者安装 nccl库从apt-get上的库的地址:http://developer.download.nvidia.com/compute/machine-...原创 2018-11-01 15:32:40 · 387 阅读 · 3 评论 -
Caffe 训练记录
1.训练一个结合分类学习和相似度学习的多任务网络,一开始使用GPU训练,在第一次迭代时便出现了out of memory的错误。于是减小了了batch size,但是效果还是一样,在第三四次迭代时同样报错。后来改用CPU训练(因为电脑内存有8Gb,而显存只有2Gb),发现caffe每次迭代时都会读入图片,当所有训练图片全部读入时,基本上内存不在上升了。注意,Test阶段也会读入图片。最终内存占用在8原创 2016-11-11 10:10:53 · 3671 阅读 · 2 评论 -
Dropout 层是否有效
之前做分类的时候,Dropout 层一般加在全连接层 防止过拟合 提升模型泛化能力。而很少见到卷积层后接Drop out (原因主要是 卷积参数少,不易过拟合),今天找了些博客,特此记录。首先是一篇外文博客(他的一系列写的都很好):Dropout Regularization For Neural Networks 也有中文翻译版的:基于Keras/Python的深度学习模型Dropout正...原创 2018-04-09 22:00:15 · 7592 阅读 · 0 评论