深度学习
lih627
可以通过训练提高自己的平均水平并减少方差。
展开
-
[加速] Opencv DNN通过 GPU 加速推理过程
Opencv 从源码编译python-GPU版本简介安装必须要的库查看cuda版本和显卡型号下载 Opencv 和 Opencv Contrib准备虚拟环境编译和安装GPU 推理简介最近在使用 Opencv HED 算法做边缘检测,在一张 1000X1000 大小的图片推理大概需要6秒,所以想通过GPU加速。之前一种通过 PYPI 安装 opencv-python ,这个版本是不支持GPU的,因此需要从源码编译安装。参考了教程How to use OpenCV’s “dnn” module with原创 2020-11-12 15:52:33 · 4124 阅读 · 7 评论 -
记录一次失败的字节跳动面试「算法」
记录一次失败的字节跳动面试「算法」文章目录记录一次失败的字节跳动面试「算法」简介神经网络参数如何初始化Xavier 初始化He 初始化Dropout在forward里面怎么做L1和L2正则化的区别AUC是什么,写一下代码编程题,类似实现 ndarray.shape简介字节跳动面崩了,记录一下。神经网络参数如何初始化Deeplearning.ai的教程Initializing neural networks :首先神经网络参数不能初始化为0或者任意相同的常量。如果网络参数都是相同常量,那个每个隐层原创 2020-10-26 20:27:06 · 411 阅读 · 0 评论 -
[NNDL] 最小二乘法解的矩阵形式
最小二乘法解的矩阵形式文章目录最小二乘法解的矩阵形式简介平方损失函数对参数求导求解最优参数简介最近在看 NNDL,其中有一个经验风险最小化的例子,即最小二乘法,定义如下:给定一组包含 NNN 个训练样本的训练机 D={(x(n),y(n))}n=1ND=\{(\mathbf{x}^{(n), }y^{(n)})\}_{n = 1}^ND={(x(n),y(n))}n=1N 。使用线性回归。样本和参数均为列向量。f(x;w)=wTxf(\mathbf{x};\mathbf{w}) = \math原创 2020-10-07 22:14:24 · 228 阅读 · 0 评论 -
深度学习中需要的矩阵计算
深度学习中需要的矩阵计算摘要介绍复习:标量求导法则向量计算和偏导数矩阵计算Jacobian 矩阵生成向量元素级二元运算符的导数涉及标量运算的导数向量归约和(sum reduction)链式法则Single-variable chain ruleSingle-variable total-derivative chain rule向量链式法则神经激活函数的梯度拓展: 广播函数神经网络损失函数的梯度关于权重的梯度针对偏置项的公式总结The Matrix Calculus You Need For Deep翻译 2020-10-01 21:57:42 · 2588 阅读 · 0 评论 -
[CV] Rotated IoU 计算旋转矩形之间的重叠面积
[CV] Rotated IoU 计算旋转矩形之间的重叠面积文章目录[CV] Rotated IoU 计算旋转矩形之间的重叠面积简介旋转包围盒的编码方式矢量的旋转公式包围盒转化为角点代码表示相交区域的特点点在四边形(矩形)内点积的物理意义代码线段交点判断线段是否相交相交后转化为直线交点代码计算相交区域面积顶点排序顶点排序代码简易版三角剖分所有代码简介在目标检测的领域,基于Anchor的方法需要对Anchor分配正负样本的标签。通常,对于axis-aligned的anchor和ground truth,原创 2020-08-30 17:38:40 · 7730 阅读 · 7 评论 -
[CV] Anchor-Free Target Assignment 高斯核半径
[CV] Anchor-Free Target Assignment 高斯核半径简介代码原理解释情况1情况2情况3简介有两篇经典 Anchor-Free 算法,CornerNet 和 CenterNet,Target Assignment 过程都是用了位置和包围核尺度生成自适应高斯分布,即高斯核半径是通过包围核尺度计算得到的。这里作者论文都是一带而过,然而如何计算还是有很多学问在里面。Github也有对于他们的讨论。我参考了以下资料:知乎:说点 Cornernet/Centernet 代码里面 G原创 2020-08-26 14:17:06 · 678 阅读 · 0 评论