笔记
文章平均质量分 61
mo_heng
这个作者很懒,什么都没留下…
展开
-
TypeError: can‘t convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to
TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.原创 2023-03-01 16:09:13 · 578 阅读 · 0 评论 -
深度学习之BP神经网络3
深度学习之BP神经网络31.原理1.1多层网络输入层多个输入节点分别以不同的权重输入到隐藏层之中,汇合后的数值再通过隐藏层或者输出到输出层,可以有多个不同的激活函数。1.2BP网络模型下图为一个三层的BP神经网络,X为输入层的输入向量,V是输入层输出到隐藏层的权值,Y为隐藏层的输出向量,W为隐藏层输出到输出层的权值,O为最后输出层的输出。对于输出层,f代表激活函数,netk是隐藏层的输出乘以各自的权值W后相加,O是将netk通过激活函数后得到的。对于隐藏层,f代表激活函数,netj是输入层原创 2021-02-28 11:18:57 · 4816 阅读 · 0 评论 -
深度学习之线性神经网络2
深度学习之线性神经网络21.原理区别线性神经网络与单层感知器的区别:1.1激活函数的不同。如下图所示,单层感知器为sign函数,线性神经网络为purelin函数(y=x)。1.2线性神经网络采用LMS算法调整网络的权重和偏置。LMS学习规则与前面单层感知器的权值调整方法区别不大,都是用误差=期望输出-实际输出,只是激活函数不同,造成误差公式有点小的差异,而在后面的权向量调整量的计算公式中,都是用学习率误差输入X,这是相同的。1.3Delta学习规则。上面的LMS学习规则实际上是Delta原创 2021-02-21 08:33:19 · 904 阅读 · 0 评论 -
深度学习之单层感知器1
深度学习之单层感知器11.原理图中共有三个输入节点,通过这个三个输入节点输入数据,分别乘以各自的权值后相加,在加上偏置因子,通过激活函数sign得到输出。还可以把偏置因子b当作一个特殊的固定输入结点,即输入的x固定为1,权重w自己设置,这样设置的w就起到了偏置因子的作用。2.学习规则2.1权值调整公式W的调整值=学习率*(期望输出-实际输出)*与W相对应输入节点X2.2学习率学习率一般取0到1之间,学习率太大容易造成权值调整不稳定,学习率太小容易造成权值调整太慢,迭代次数过多。2.3收敛条原创 2021-02-19 17:10:20 · 1137 阅读 · 0 评论 -
测试轻量级OCR模型
测试超轻量级OCR模型个人配置及代码源配置:Ubuntu16.04cuda 10.0tensorflow-gpu 2.0gcc 6.5g++ 6.5网址:link=https://github.com/ouyanghuiyu/chineseocr_lite测试过程1.在本文提供的网址上下载OCR模型,注意选择master分支,如果下载速度过慢,可选择通过码云下载参考博客如下:link=https://blog.csdn.net/murenxiaowei/article/details/8原创 2020-11-02 12:57:44 · 1343 阅读 · 1 评论