自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 DB2相关

安装过程默认即可,但在系统安全选项中要去掉勾选打开管理员终端。

2024-08-19 14:22:28 155

原创 华科软件学院(HUST-SSE)人工智能实验神经网络部分(二)

在这个实验中,我使用GAN生成对抗网络对Fashion-MINST数据集进行了训练,并生成了数据。我在训练中记录了可被10整除的epoch的实验结果。本次实验我实现了简单的GAN网络模型,了解到了生成对抗网络的基本原理,并且对GAN的特性有了初步的认知。如果有时间,我会研究一下其他的生成网络,如WGAN、DCGAN等。

2023-05-19 23:53:53 322

原创 华科软件学院(HUST-SSE)人工智能实验神经网络部分

我这里看到报的是CUDA相关的错误,于是我下意识认为是显卡算力不足,但是我非常疑惑,因为输出的类别只是增加到了26,这会导致计算量爆炸吗?打印了标签值(y)的最大最小值,发现是26和1。先说一下我根据搜索引擎结果对BP神经网络的理解,我之前一直没弄清楚“前馈”和“反向传播的概念”,导致我认为“BP神经网络是前馈网络”和“BP算法采用了反向传播”这两种说法是相互矛盾的,这次我终于弄清楚了。:第i层的一个神经元的残差是所有与该神经元相连的第i+1层的神经元的残差的权重和,然后在乘上该神经元激活函数的梯度。

2023-05-14 15:14:58 390

翻译 【通俗易懂】带你理解神经网络中的激活函数

当你知道你试图拟合的函数具有某些特征时,你就可以选择更拟合它的激活函数,从而加快训练过程。然后,如果超过1个神经元激活,你可以找到哪个神经元具有“最大激活值”等等(比max更好的方法,叫softmax,不过让我们先放一放)。想象一个具有随机初始化权重(或归一化)的网络,由于ReLu的特性(x为负值时输出0),几乎50%的网络产生0激活。但是由于输出存在中间激活值,因此学习可以更平滑、更容易(不那么波动),并且与阶跃函数相比,在训练时多个神经元被100%激活的机会更小(这也取决于你训练的内容和数据)。

2023-05-13 20:23:36 522 1

原创 操作系统的特性

互为存在条件如果没有并发性的话,系统中只有一个程序运行,就没有共享的意义了如果没有共享性,程序运行是需要资源的,那么不同的进程就不能“同时”(注意我这里打了引号,指宏观同时,其实微观上还是交替的)访问资源,那么也就无法实现并发运行。

2023-05-11 17:41:08 162 1

原创 deepin20.9安装nvidia+cuda+cudnn

我是为了使用pytorch才安装的cuda和cudnn加速,anaconda里也有cuda,但是和我这里安装的cuda不是一个东西,为了防止大家混淆,这里要讲一下关于cuda和cuda toolkit(pytorch)

2023-05-08 11:08:09 3174 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除