DeepLearning
文章平均质量分 70
deep learning, machin learning
东皇太一在此
这个人很懒,但还是写了一句话。
展开
-
[BROADCASTING]tensor的扩散机制
区别于单个数值运算的小打小闹,矩阵里喜欢用扩散机制,这里讨论一下tensor的扩散机制,其实和numpy里面的是一样的;原创 2023-11-08 21:33:24 · 67 阅读 · 0 评论 -
模型训练期间model.train()和model.eval()到底在做什么?
model 可以设置成两种模式,一种是train(),另一种是eval(),原创 2023-11-08 08:56:18 · 511 阅读 · 0 评论 -
在连接服务器的终端使用screen
很好用,再也不用在自己电脑上把页面关掉,结果服务器上跑的实验挂掉了!原创 2023-10-31 22:02:10 · 125 阅读 · 0 评论 -
Dataset文件下载以及使用,以nuswide为例
数据集要求以文章`multi-label learning from single positive label`为例;原创 2023-10-29 19:52:26 · 179 阅读 · 0 评论 -
[论文研读]Deep Self-Taught Learning for Handwritten Character Recognition(数据增强-5种仿射变换和9种噪声)
利用5种仿射变换和9种噪声来增强数据。附有源代码。Transformer:Thickness,Slant,AffineTransformations,Local ElasticDeformations,Pinch;Noise:MotionBlur,Occlusion,GaussianSmoothing,PermutePixels,GaussianNoise,BackgroundImageAddition,Salt_andPepperNoise,Scratches,GreyLevelandCont;原创 2021-01-26 23:32:41 · 395 阅读 · 0 评论 -
[论文研读]Virtual Example Synthesis Based on PCA for Off-Line Handwritten Character Recognition
文章目录虚拟例子的已有工作介绍on-line database论文标题:Virtual Example Synthesis Based on PCA for Off-Line Handwritten Character Recognition虚拟例子的已有工作介绍on-line database在线数据(在设备上实时书写,记录有笔画顺序),假设每一个汉字被拆分成一些独立的笔画,并且每一个笔画在二维平面上是连续不断的。在之前的工作中,我们对每一个笔画做如下的仿射变换affine transforma原创 2021-01-26 22:32:38 · 111 阅读 · 0 评论 -
[keras][VGG]迁移学习应用
迁移学习,将之前搭建训练好的模型直接南来,再添加新的东西。原创 2021-01-23 22:54:16 · 288 阅读 · 2 评论 -
[ALEXNET][keras]手写数字识别
手写数字识别,保存了训练好的模型,之后可以直接载入,无需再次训练。原创 2021-01-23 11:49:13 · 618 阅读 · 1 评论 -
从神经元到神经网络
文章目录神经元SigmoidTanhRelu损失函数L1L2交叉熵梯度下降反向传播卷积神经网络卷积层:边缘检测输入数据卷积算子卷积运算进阶卷积步长stride 和 padding步长padding神经元简单来说,给出权重 w1w_1w1, w2w_2w2, 偏差bbb等参数,再输入数据 x1x_1x1, x2x_2x2等,经过非线性变化得到 z,再经过变化 σ 得到 a,最后计算损失函数 L(a, y)其中 σ 变化常见的有如下三种:Sigmoidf(x) 值域为 (0, 1)T原创 2021-01-22 23:13:23 · 207 阅读 · 0 评论 -
神经网络模型优化-训练优化
文章目录批训练优点动量梯度下降法(gradient descent with momentum)优化器RMSProp优化器优点自适应矩估计 Adam 优化器优点批训练把训练数据切割成很多个 batch ,接着一个 batch 一个 batch 的喂给模型;优点提高训练速度;对训练过程引入随机性;这个随机性最重要,可以有效解决局部最优,我现在切分成很多很多 batch ,那么每个 batch 的初始位置随机性很大,就好像撒豆子,每个地方都撒一点,就不容易卡在某一个小坑。红色部分表示 ba原创 2021-01-22 16:50:05 · 863 阅读 · 0 评论