神经网络
文章平均质量分 53
爱编程的西瓜
这个作者很懒,什么都没留下…
展开
-
pytorch
什么是pytorch PyTorch是一个提供两个高级功能的python包: 具有强GPU加速度的张量计算(如numpy) 深层神经网络建立在基于磁带的自动调整系统上 您可以重用您最喜爱的python软件包,如numpy,scipy和Cython,以便在需要时扩展PyTorch。 PyTorch在细粒度级别是由以下组件组成的库: 包 描述 torch 像NumPy这样的Tensor图书馆,拥有强大的GPU支持 torch.autograd 一种基于磁带的自动分类库,支持所有可区分的Tensor操作手电筒原创 2022-02-23 10:19:01 · 824 阅读 · 0 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day3
反向传播back propagation B站 刘二大人 ,传送门PyTroch 深度学习实践——反向传播 代码说明: 1、w是Tensor(张量类型),Tensor中包含data和grad,data和grad也是Tensor。grad初始为None,调用l.backward()方法后w.grad为Tensor,故更新w.data时需使用w.grad.data。如果w需要计算梯度,那构建的计算图中,跟w相关的tensor都默认需要计算梯度。 刘老师视频中a = torch.Tensor([1.0]) 本文中原创 2022-02-23 13:53:17 · 314 阅读 · 1 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day4
逻辑斯蒂回归 B站 刘二大人 的PyTorch深度学习实践——逻辑斯蒂回归 视频中截图 说明: 1、 逻辑斯蒂回归和线性模型的明显区别是在线性模型的后面,添加了激活函数(非线性变换) 2、分布的差异:KL散度,cross-entropy交叉熵 说明:预测与标签越接近,BCE损失越小。 代码说明: 1、视频中代码F.sigmoid(self.linear(x))会引发warning,此处更改为torch.sigmoid(self.linear(x)) 2、BCELoss - Binary CrossEnt原创 2022-02-23 14:07:12 · 170 阅读 · 0 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day7
多分类问题 B站 刘二大人 的PyTorch深度学习实践——多分类问题 在多分类的视频中,我们了解到,我们要对图中的数字进行输出分类,判断他们是什么数字,这里就会出现两个问题,一个是让输出相互抑制,并且让概率之和相加正好为1,二是概率都大于0. 视频中截图 说明: 1、softmax的输入不需要再做非线性变换,也就是说softmax之前不再需要激活函数(relu)。softmax两个作用,如果在进行softmax前的input有负数,通过指数变换,得到正数。所有类的概率求和为1。 2、y的标签编码方式是o原创 2022-06-08 10:37:48 · 226 阅读 · 1 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day1
第2讲 linear_model 源代码 B站 刘二大人 ,传送门 PyTorch深度学习实践——线性模型 代码说明: 1、函数forward()中,有一个变量w。这个变量最终的值是从for循环中传入的。 2、for循环中,使用了np.arange。 3、python中zip()函数的用法: zip函数的原型为: zip([iterable, …]) 参数iterable为可迭代的对象,并且可以有多个参数。该函数返回一个以元组为元素的列表,其中第 i 个元组包含每个参数序列的第 i 个元素。返回的列表长度原创 2022-02-23 12:56:36 · 396 阅读 · 0 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day6
加载数据集 B站 刘二大人 的PyTorch深度学习实践——加载数据集 这次的视频是继续优化上一个视频的代码,上次我们输入糖尿病病人的数据,在处理是没有才有分成几个部分的处理,而是一整坨的放进去进行计算了,所以在加载数据集这方面我们就优化一样,用MiniBatch将数据集进行划分。 说明: 1、DataSet 是抽象类,不能实例化对象,主要是用于构造我们的数据集 2、DataLoader 需要获取DataSet提供的索引[i]和len;用来帮助我们加载数据,比如说做shuffle(提高数据集的随机性),ba原创 2022-02-23 14:37:54 · 163 阅读 · 0 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day5
处理多维特征的输入 B站 刘二大人 的PyTorch深度学习实践——处理多维特征的输入 视频中截图 说明:1、乘的权重(w)都一样,加的偏置(b)也一样。b变成矩阵时使用广播机制。神经网络的参数w和b是网络需要学习的,其他是已知的。 2、学习能力越强,有可能会把输入样本中噪声的规律也学到。我们要学习数据本身真实数据的规律,学习能力要有泛化能力。 3、该神经网络共3层;第一层是8维到6维的非线性空间变换,第二层是6维到4维的非线性空间变换,第三层是4维到1维的非线性空间变换。原创 2022-02-23 14:27:09 · 201 阅读 · 0 评论 -
《PyTorch深度学习实践》-B站 刘二大人-day2
梯度下降算法法 B站 刘二大人 ,传送门PyTorch 深度学习实践 梯度下降法 深度学习算法中,并没有过多的局部最优点。 import matplotlib.pyplot as plt # prepare the training set x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] # initial guess of weight w = 1.0 # define the model linear model y = w*x def原创 2022-02-23 13:23:47 · 108 阅读 · 0 评论