![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Human Learning
这个作者很懒,什么都没留下…
展开
-
padding vaild和same讲解
https://oldpan.me/archives/tf-keras-padding-vaild-same转载 2019-12-10 14:27:27 · 169 阅读 · 0 评论 -
Pytorch实例-Mnist数据集 分类问题
这几天专攻Pytorh,总算把mnist的代码捣鼓出来了,我的第一个CNN。 我是根据官方github上的GPU版代码改造而来,运行通过,正确率很高。 官方github传送门](https://github.com/pytorch/examples/blob/master/mnist/main.py) 附上我的代码 from __future__ import print_function imp...原创 2019-08-18 10:35:02 · 455 阅读 · 0 评论 -
Numpy学习之路----快速入门教程总结(一天学的知识)
记录一点学习numpy自己的易错点 (一)形状操作 1 这里的np.hsplit(a,3)是按纵轴划分成3部分 而np.hsplit(a,(3,4))则是说从从序号为3和4的那两列划分出来,所以有以上的结果 (二)复制和视图 1 复制概念之间的异同 1) ...原创 2019-08-21 22:28:23 · 311 阅读 · 2 评论 -
Pytorch实战之Mnist数据集
今年又手扒了一遍Mnist代码 除了print部分和test后面几个函数的处理,其余的都是自己手敲的,一个模块一个模块来,报错了很多,和官方代码对比改正,收获很大,对一些函数的使用更熟悉的,和大家一起分享我的代码,这次我自己手写的,所以没打注释,足够熟悉 import torch import torchvision import torch.nn.functional as F import ...原创 2019-08-19 12:14:20 · 231 阅读 · 1 评论 -
Pytorch实战-Mnist数据集
上篇理解完官方的代码后,根据自己的理解,写了一份自己风格的CPU版本代码,并加上了详细的注释,方便像我一样的新手小白理解每块代码都在做些什么事情。 from __future__ import print_function import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as...原创 2019-08-18 21:25:55 · 509 阅读 · 0 评论 -
5—— python,pytorch
5—— python,pytorch 今天总算是把pytorch环境搭好了,反反复复弄了好多次。 发现pytorch之前还是要学python的,那我就开始学python了。 理论明天也要照常走。 现在分为理论,实践,英语三大部分。 具体事情明天再更,留个坑。 ...原创 2019-08-01 23:27:11 · 101 阅读 · 0 评论 -
4——CNN(卷积神经网络)
4——CNN(卷积神经网络) 运用矩阵的方式,找一个特征矩阵,经过矩阵乘,使原矩阵缩小维度,好处理。 以围棋为例,不需要看到整体,只需找出有没有和我特征矩阵相同的模块。 缩小缩小缩小。 RGB是三维,第三维就是R,G,B一起作为一个矩阵来运算,加上之前的二维。 Convolution and Mp(忘了这个术语),是基本步骤。 先给一个fifter去处理,再给新图片,重复。 最后可以取每组矩阵中最...原创 2019-07-31 22:21:13 · 318 阅读 · 0 评论 -
2——Backpropagation(反向传播)
2——Backpropagation(反向传播) 先上summy总结这节课的内容 整节课的大致思路是推导Backpropagation。 通过计算Gradient Descent去估计Loss,选择θ 而Backpropagation就是一种快速计算GD的方法 如其名和上图,把GD用高数的知识拆分出两部分,因为第一部分很好算,就是系数,第二部分不好算,推导方法是假设已知往后走,实际上算的时候就是...原创 2019-07-26 23:07:38 · 80 阅读 · 0 评论 -
1 —— Brief introduction of Deep Learning
1 —— Brief introduction of Deep Learning 今天看完了Brief introduction of Deep Learning这一节。 B站1.5倍速刚刚好,能让脑子快速反应,也节省了时间。 1 Ups and Downs of Deep Learning 个人觉得本部分内容不够详细,没太经过脑子。自己动手上网搜索简要整理了一下。 · 1943 MCP模型 “...原创 2019-07-25 23:21:52 · 129 阅读 · 0 评论 -
6——Attack ML Models
6——Attack ML Models 今天主要学完了Attack ML Models部分,攻防。 这张图概括的很好 训练时是用固定data去生成Network,Network是会变化的,找到一个较好的Network,而Attack有点类似于测试,固定Network结构,用和trainging data相类似的image去让model判断出错误的结果,越离谱越好。 所以我们可以反其道而行之,计算...原创 2019-08-02 21:24:46 · 556 阅读 · 0 评论 -
3——Anomaly Detection
3——Anomaly Detection 1 Anomaly Detection 仅是检测出anomaly的数据 2 本节课的框架图 training data可能会被污染,可以用一个××生成training data 基本思路 3 model的performence是由你判定的方法决定的,是missing比较重要还是false alarm比较重要 4 极大似然估计量在ML的应用 今天学得很...原创 2019-07-28 23:23:34 · 135 阅读 · 0 评论