- 博客(6)
- 收藏
- 关注
原创 TypeError: can‘t convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to
TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.
2023-03-01 16:09:13 584
原创 ImportError: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.20‘ not found
ImportError: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.20’ not found** 适用于在远程服务器跑代码报错的情况下 **1.查找编译gcc时生成的动态库find / -name "libstdc++.so*"2.如果你使用服务器将会看到一大堆的库/home/hyd/yzq/xiehaotao/FALdetector-master/libstdc++.so.6/home/hyd/libstdc++.so.6/home/hyd/
2021-09-15 20:23:17 1178
原创 深度学习之BP神经网络3
深度学习之BP神经网络31.原理1.1多层网络输入层多个输入节点分别以不同的权重输入到隐藏层之中,汇合后的数值再通过隐藏层或者输出到输出层,可以有多个不同的激活函数。1.2BP网络模型下图为一个三层的BP神经网络,X为输入层的输入向量,V是输入层输出到隐藏层的权值,Y为隐藏层的输出向量,W为隐藏层输出到输出层的权值,O为最后输出层的输出。对于输出层,f代表激活函数,netk是隐藏层的输出乘以各自的权值W后相加,O是将netk通过激活函数后得到的。对于隐藏层,f代表激活函数,netj是输入层
2021-02-28 11:18:57 4981
原创 深度学习之线性神经网络2
深度学习之线性神经网络21.原理区别线性神经网络与单层感知器的区别:1.1激活函数的不同。如下图所示,单层感知器为sign函数,线性神经网络为purelin函数(y=x)。1.2线性神经网络采用LMS算法调整网络的权重和偏置。LMS学习规则与前面单层感知器的权值调整方法区别不大,都是用误差=期望输出-实际输出,只是激活函数不同,造成误差公式有点小的差异,而在后面的权向量调整量的计算公式中,都是用学习率误差输入X,这是相同的。1.3Delta学习规则。上面的LMS学习规则实际上是Delta
2021-02-21 08:33:19 925
原创 深度学习之单层感知器1
深度学习之单层感知器11.原理图中共有三个输入节点,通过这个三个输入节点输入数据,分别乘以各自的权值后相加,在加上偏置因子,通过激活函数sign得到输出。还可以把偏置因子b当作一个特殊的固定输入结点,即输入的x固定为1,权重w自己设置,这样设置的w就起到了偏置因子的作用。2.学习规则2.1权值调整公式W的调整值=学习率*(期望输出-实际输出)*与W相对应输入节点X2.2学习率学习率一般取0到1之间,学习率太大容易造成权值调整不稳定,学习率太小容易造成权值调整太慢,迭代次数过多。2.3收敛条
2021-02-19 17:10:20 1175
原创 测试轻量级OCR模型
测试超轻量级OCR模型个人配置及代码源配置:Ubuntu16.04cuda 10.0tensorflow-gpu 2.0gcc 6.5g++ 6.5网址:link=https://github.com/ouyanghuiyu/chineseocr_lite测试过程1.在本文提供的网址上下载OCR模型,注意选择master分支,如果下载速度过慢,可选择通过码云下载参考博客如下:link=https://blog.csdn.net/murenxiaowei/article/details/8
2020-11-02 12:57:44 1357 1
COVERAGE图像篡改数据集,已处理好,tamper和mask图片名字一一对应,可直接使用
2023-03-01
CASIA v1.0数据集,包含tamper和mask,已处理好,可直接使用
2023-03-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人