深度学习
文章平均质量分 84
乔大将军
这个作者很懒,什么都没留下…
展开
-
自然语言处理-BERT处理框架-transformer
BERT:当前主流的解决框架,一站式搞定NLP任务。(解决一个NLP任务时的考虑方法之一)BERT:google开源的框架BERT:自然语言的通用解决框架必备知识:Word2vec,RNN(了解词向量模型,RNN模型如何建模)重点:Transformer网络架构训练方法: BERT训练方法google开源提供预训练模型,直接使用。原创 2024-06-28 11:42:23 · 1171 阅读 · 0 评论 -
GAN实例基于神经网络
需要了解GAN的原理查看。采用手写数字识别数据集。原创 2024-05-16 14:08:48 · 423 阅读 · 1 评论 -
数据增强,迁移学习,Resnet分类实战
加载预训练模型,torchvision中有很多经典网络架构,调用起来十分方便,并且也可以用人家训练好的权重参数来继续训练,也就是所谓的迁移学习。需要注意的是别人训练好的任务根咱们的可不是完全一样的,需要把最后的head层改一改,一般也就是最后的全连接层,改成咱们自己的任务。2.将卷积层权重参数冻住不变,全连接层重新训练(一般是,数据量少,冻住的层数多)训练时可以完全重头训练,也可以只训练最后咱们任务层,因为前几层都是做特征提取的,本质任务目标一致的。迁移学习,用前人的参数,改变全连接层。原创 2024-05-11 14:07:21 · 1160 阅读 · 2 评论 -
卷积神经网络
大家联系神经网络提取特征的过程,经过隐藏层,将输入特征值增大,减小,特征数量增多,减少,最后学习到了特征,虽然人是看不出,读不懂这样的特征。那么卷积的作用也是提取特征,而且克服了神经网络的参数过多,容易过拟合的问题。想象一下,一张图片有主次之分,有背景,有人物,把一张图片分成一块一块的(张量),每一块都有它的代表特征,怎么得到这个特征呢???引入卷积核(类似于神经网络中的权重参数矩阵)卷积核在定义了大小后,初始化类似与神经网络中的权重参数矩阵,然后在迭代优化中(反向传播)更新,达到最佳的一组。原创 2024-05-08 22:11:47 · 1286 阅读 · 3 评论