自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (1)
  • 收藏
  • 关注

原创 【无标题】上传用

ddddd。

2023-10-26 18:18:17 85

原创 5Y3S8

1

2023-10-09 22:46:48 131

原创 【ChatGLM】ChatGLM本地部署LOG_cpu推理成功,gpu待买

chatglm推理-cpu

2023-07-07 20:58:36 271

原创 【已解决】cuda不可用

torch.cuda.is_available()false

2022-08-15 17:53:12 4341

原创 【已解决】代码在pycharm上可以正常运行,在linux服务器报错No module named

【已解决】代码在pycharm上可以正常运行,在linux服务器报错No module named

2022-07-30 10:07:23 1878

原创 2 Resnet系列网络模型改进

首先是Resnet系列,原始的resnet网络在输入层有一个7*7,s=2的大卷积和3*3,s=2的最大池化层,中间层是由3*3或1*1小卷积组成的残差块的堆叠,输出层是一个全局平均池化和预测类别的全连接。2.1 resnet-v2在resnet-v2网络中[54],何恺明在原版的理论基础上做了组件的位置调换,如图8。在原有组件分布中,灰色路线的Relu在add之后,残差块的输出非负,不利于简化优化,所以Relu应放在右侧分支层,保持灰色路线add后数据分布不变。BN层应位于Relu层之前,因为mi

2021-05-07 19:31:11 9168 1

原创 1.6 大型深网与恒等映射

人们发现当深网深到一定程度时,模型的性能逐渐上升至饱和,然后下降,这被称为网络退化问题。网络退化的原因是非线性激活函数造成的不可逆信息损失[52],因此深层网络比浅层网络错误率更高,更难以被优化。为了解决这样的问题,需要提出一个能解决“恒等映射”的想法——哪怕更深的层什么都不做,也比变差更好(保留深层提取语义信息的能力和至少不网络退化)。有了需求,一个满足需求的更大突破到来了。2015年ILSVRC竞赛冠军Resnet的成绩为3.57%(2014年冠军成绩为6.7%),模型深度达到了恐怖的152

2021-05-07 19:24:48 1059

原创 1.5 权值初始化和BN

在BN出现之前,权值初始化决定了神经网络的初始优化位置,如图6。正向传播时,神经元的输出会被作为激活函数的输入来进行激活判断。如果神经元的输出不合适,则难以优化(恒为0或1),神经元的输出应当控制在均值为0,方差为1的范围内比较合适。为了使神经元输出控制在这个范围内,如此处神经元输出范围为N~(0,1)正态分布,该神经元的输入有n个神经元,则权重矩阵元素初始化就应当为N~(0,1/n),如式5。在反向传播时,由于梯度的连乘效应(梯度=激活层1斜率*权重1*激活层2斜率*权重。。),权值的过大或过小会

2021-05-07 19:19:58 560

原创 1.3 感知机、支持向量机和CNN的联系和区别

感知机的可变量是线性式中的权值w和偏差b,数学表达式是y=wx+b(这条线称为超平面),然后激活函数将低于这个线性式的信息抑制,低于线性式的信息激活,平面可视化为图3。但是这种分离往往不是最优的,泛化性能不好。一个线性可分数据集的超平面有无数个,如何选取最优的那个呢?SVM对此做出了改进。为了获得最优泛化性能的超平面,SVM首先根据KKT条件选取具有约束作用的支持向量(靠近边界的学习样本),通过几何间隔最大化的思想,将最优超平面的问题转化为支持向量与超平面欧氏距离最大化,再转化为带有一次项条件的L2

2021-05-07 19:13:20 1269 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除