深度学习
文章平均质量分 80
Elvis_hui
寒江孤影,江湖故人,相逢何必曾相识!
展开
-
深入理解【正则化的L1-lasso回归和L2-岭回归】以及相关代码复现
为了防止过拟合,通常在线性的模型的基础上引入一个正则化项。$L_1$和$L_2$正则化中,正则项是模型参数的$L_1$范数和$L_2$范数。在训练集上表现很好,在测试集上表现不好【模型过于复杂】,ε服从均值为0,标准差为0.01的正态分布。特征维度为200,将训练数据集的样本设低20。网格搜索可以在参数空间中搜索最优参数。1- 过拟合 欠拟合 模型选择。1- 过拟合 欠拟合 模型选择。3- L2正则代码复现。学习到的数据特征过少。3- L2正则代码复现。2- 正则L1与L2。2- 正则L1与L2。原创 2023-03-30 17:54:36 · 1034 阅读 · 1 评论 -
激活函数σ、tanh、relu、Leakyrelu、LR_BP反向传播推导
绘制sigmoid函数的导数。当输入为0时,sigmoid函数的导数达到最大值0.25;当输入越偏离0时,sigmoid函数的导数越接近0。tanh(双曲正切)函数可以将元素的值变换到-1和1之间 ,阈值(-1,1)1-1 sigmoid导数。1-1 sigmoid导数。2-1 tanh函数导数。2-1 tanh函数导数。原创 2023-03-22 11:48:24 · 958 阅读 · 0 评论 -
深度学习-softmax回归
引用Fashion-MNIST 数据集复现softmax回归,深入了解pytorch 简洁的操作,以及巩固softmax函数的基础知识。原创 2023-03-21 11:51:57 · 1106 阅读 · 0 评论 -
深度学习-4 Linear regression for Pytorch
写一个自己的网络from torch import nn class LinearNet(nn . Module) : def __init__(self , n_feature) : super(LinearNet , self) . __init__() self . linear = nn . Linear(n_feature , 1) #定义前向传播 def forward(self , x) : y = self . linear(x) return y。原创 2023-03-15 10:15:39 · 455 阅读 · 0 评论 -
深度学习-3.Logistic regression for Pytorch
为了进一步熟悉pytorch操作和相关函数熟悉,以复现一个逻辑回归底层来帮助了解其过程以及方法等原理。原创 2023-03-14 17:13:04 · 196 阅读 · 0 评论 -
深度学习笔记-2.自动梯度问题
记录梯度反向传播的过程,及相应的问题。原创 2023-03-08 16:59:08 · 457 阅读 · 0 评论 -
深度学习笔记-1.基本的数据操作
作为动手学深度学习的基础,掌握对内存中数据的处理,以及一些函数的掌握很有必要,本章是开篇对深度学习的Pytorch版本的学习与记录,原书是李沐 MXNet版本《动手学深度学习》,简单的记录一些函数的功能特点和用法,记录方便巩固。原创 2023-03-08 15:10:53 · 874 阅读 · 0 评论