- 博客(7)
- 资源 (6)
- 收藏
- 关注
原创 霍夫变换检测直线(HoughLines)
霍夫变换用来检测任意能够用数学公式表达的形状,即使这个形状被破坏或者有点扭曲。霍夫变换的原理是将特定图形上的点变换到一组参数空间上,根据参数空间点的累计结果找到一个极大值对应的解,那么这个解就对应着要寻找的几何形状的参数(比如说直线,那么就会得到直线的斜率k与常熟b,圆就会得到圆心与半径等等)。关于霍夫变换核心以及难点就是关于就是有原始空间到参数空间的变换上。以直线检测为例,假设有一条直线L,原点到该直线的垂直距离为ρ,垂线与x轴夹角为θ ,那么这条直线是唯一的,且直线的方程为 ρ=xcosθ+ysin
2021-06-29 00:25:04 9062 4
原创 图像的上采样与下采样
上采样:别名:放大图像,也叫图像插值。目的:放大原图,从而可以显示在更高分辨率的显示设备上。缺点:会对图像的质量造成影响,并没有带来更多的信息。方法:内插值。插值方法有很多,比如均值,中值,最近邻。通过这种方法,在周围像素色彩的基础上用数学公式计算丢失像素的色彩。 反卷积。即通过转置卷积核的方法来实现卷积的逆过程。 反池化。在池化过程,比如max-pooling时,要记录下每个元素对应kernel中的坐标。反池化时即将每一个元素根据坐标填写,其余位置补0。下采样:别名:缩小图像
2021-06-27 23:58:11 6625 1
原创 PyQt5的事件机制
基于widget的应用程序都是由事件event驱动的,像鼠标单击、按下某个按键、重回组件、最小化窗口等都会产生相应的事件。应用程序的事件循环
2021-06-10 20:10:51 1086
原创 梯度与方向导数
假设我们有一个函数 y = f(x),其中 x 和 y 是实数。这个函数的 导数(derivative)记为 f′(x) 或 dydx。导数 f′(x) 代表 f(x) 在点 x 处的斜率。换句话说,它表明如何缩放输入的小变化才能在输出获得相应的变化:f(x + ϵ) ≈ f(x) + ϵf′(x)。因此导数对于最小化一个函数很有用,因为它告诉我们如何更改 x 来略微地改善 y。例如,我们知道对于足够小的 ϵ 来说,f(x − ϵsign(f′(x))) 是比 f(x) 小的。因此
2021-06-07 16:49:56 908
转载 偏导数的几何意义
表示固定面上一点的切线斜率。偏导数 f’x(x0,y0) 表示固定面上一点对 x 轴的切线斜率;偏导数 f’y(x0,y0) 表示固定面上一点对 y 轴的切线斜率。高阶偏导数:如果二元函数 z=f(x,y) 的偏导数 f’x(x,y) 与 f’y(x,y) 仍然可导,那么这两个偏导函数的偏导数称为 z=f(x,y) 的二阶偏导数。二元函数的二阶偏导数有四个:f"xx,f"xy,f"yx,f"yy。注意:f"xy与f"yx的区别在于:前者是先对 x 求偏导,然后将所得的偏导函数再对 y 求偏导;
2021-06-03 16:43:16 9591
转载 深度学习中number of training epochs中的,epoch到底指什么?
首先复习下神经网络的概念。神经网络由一些相互链接的“神经元”组成。每个“神经元”有相应的权重。神经网络的神奇之处就在于权重是通过训练自动得出的。所谓训练,就是让神经网络在训练数据集上跑一遍,看看损失函数的值怎么样。如果损失函数的值足够小,小到符合我们的需求,那就说明神经网络拟合得很好了,训练大功告成了(实际上并非如此,因为仅仅知道拟合得很好并不够,我们还要知道神经网络是不是拟合得太好了,也就是过拟合。所以还需要用测试数据集来测试是否过拟合。不过这里就姑且就当训练完成了把。)反之,如果损失函数的.
2021-06-02 11:56:54 3545 3
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人