关于深度学习的 smart power
文章平均质量分 79
关于深度学习的一些point
Ai 医学图像分割
一名没事喜欢敲敲代码的铲屎官
展开
-
关于过拟合and欠拟合的优缺点分析、有效措施、实验代码
机器学习中,影响网络性能最重要的因素之一就是过拟合(Overfitting)和欠拟合(Underfitting)过拟合和欠拟合,涉及到机器学习中常见的两种模型性能问题,本章将介绍过拟合和欠拟合的特征,以及解决办法。原创 2024-09-05 16:49:08 · 974 阅读 · 4 评论 -
神经网络中激活函数介绍、优缺点分析
激活函数是神经网络模型中的一种非线性函数,它将输入的加权和转换为输出值。激活函数通常被插入到神经元的计算中,以帮助网络模型学习非线性模式。Sigmoid函数(也称为逻辑函数):将输入压缩到0和1之间的连续输出。双曲正切函数(tanh函数):将输入压缩到-1和1之间的连续输出。ReLU函数(修正线性单元):将负值置为0,保留正值。Leaky ReLU函数:与ReLU函数类似,但在负值上有一个小的斜率。Softmax函数:用于多分类问题,将一组值转换为概率分布。原创 2024-09-02 14:11:13 · 1191 阅读 · 0 评论 -
机器学习 4种常见目标函数介绍+代码实现
目标函数在机器学习中至关重要,不同的目标函数甚至能影像模型的性能。目标函数类似于损失函数的总称,然后让目标函数优化取得最大或者最小值这样,总而让网络收敛。原创 2024-08-03 15:42:15 · 669 阅读 · 0 评论 -
简单聊聊关于机器学习中的正则化
正则化处理是机器学习和统计模型中常用的一种技术,用于防止模型过拟合是指模型在训练数据上表现良好,但在未知数据上表现不佳,模型过于复杂,学习能力太强,把训练数据中的噪声也学习到了,导致泛化能力下降。正则化通过惩罚模型的复杂度来提高模型的泛化能力。原创 2024-07-23 17:02:16 · 932 阅读 · 0 评论 -
基于python实现的6种机器学习常用算法介绍以及优缺点分析【附代码】
本文将会使用python语言将机器学习中常用的6种算法进行复现,代码会贴在每章后面接下来将探讨这些算法的背景、原理、优缺点及应用场景。原创 2024-07-18 15:30:34 · 3002 阅读 · 0 评论 -
基于 PyTorch 的迁移学习介绍 (图像分类实战演示)
要了解有关我们模型的更多信息,让我们使用 torchinfo 的summary() 方法。为此,我们将传入:model - 我们想要获得摘要的模型。input_size - 我们想要传递给模型的数据的形状,对于 effectivenet_b0 的情况,输入大小为 (batch_size, 3, 224, 224),尽管 effectivenet_bX 的其他变体具有不同的输入大小。原创 2024-07-10 18:58:19 · 1310 阅读 · 0 评论 -
网络优化策略:根据epoch自适应比例学习率衰减
自适应学习率衰减原创 2024-02-28 18:40:43 · 333 阅读 · 0 评论 -
网络优化策略:cos 学习率衰减
cos 学习率衰减原创 2024-02-28 18:22:29 · 422 阅读 · 0 评论 -
怎么计算数据的均值和方差
均值和方差计算就是简单利用数学方法计算这里需要注意的是,有些数据集是单通道的,这样代码计算3通道就会报错。所以这里用PIL和opencv 将图像转换传入数据的时候,只需要传入父目录即可,demo脚本和data在同一路径下。原创 2024-01-23 16:55:04 · 700 阅读 · 0 评论 -
pytorch模型转ONNX
pytorch 转 ONNX 格式原创 2023-05-16 17:03:05 · 1163 阅读 · 0 评论 -
遗传算法求取函数最值问题
因为产生的二进制序列一般来说不是一个,这样是为了下面更好的交叉操作。并且,多个二进制序列也有利于找到最优的解。原创 2023-04-24 15:36:29 · 5630 阅读 · 3 评论 -
关于神经网络的权重信息和特征图的可视化
对神经网络隐藏层的可视化,以及参数权重的可视化原创 2023-04-04 22:48:27 · 4175 阅读 · 0 评论 -
聊聊神经网络结构以及计算量和内存使用
最近在看轻量级网络的paper,因此来简单聊聊神经网络计算量和使用内存的情况这里只计算两个参数FLOPs 和 MACFLOPs是神经网络执行一次前向传播的计算量,也就是乘法-加法浮点运算次数MAC :memory access cost ,网络参数的内存消耗FLOPS,最后一个大写S代表的是硬件每秒的浮点运算次数一般来说,对卷积的计算方式如下:具体的计算再后面讲解。原创 2023-04-02 14:46:36 · 1485 阅读 · 4 评论 -
关于迁移学习的方法
迁移学习的具体实现原创 2023-03-29 12:20:01 · 3289 阅读 · 0 评论 -
聊聊关于矩阵反向传播的梯度计算
本章采用的是 W * X = Y 的方式计算。因为资料或者书籍上面有时候矩阵乘法的顺序会不一样,有的还会加上转置等等。其实这些都是为了满足矩阵乘法规则为了不会混乱,可以这样记忆。可以不用考虑乘法的顺序或者有无转置A * B = C 的矩阵乘法计算谁的时候,就用反向传递的值替换掉谁,然后将另一个元素转置。顺序不变例如:计算W梯度的时候,用反向传递的值替换掉W,变成 y * X(这里y是反向传递的值,本章y = 2 Y)然后另一个元素转置,变成y * X(转置)原创 2023-02-02 14:35:14 · 1411 阅读 · 0 评论 -
如何计算神经网络参数的个数?
神经网络随着层数的加深,网络参数的个数会越来越多,小的网络有成千上万个参数,大的可以达到千万个网络参数。这里我们介绍一下如何计算神经网络参数的个数图像分类的神经网络,包含两个部分:特征提取层+ 分类层特征提取层就是将提取图像中的特征,这里的特征就是图像的细节,例如边缘、关键点等等。类似于人在识别物体的时候,往往不需要看清物体具体长什么样子,只需要观察大概的轮廓就知道这个物体是人还是树。那么这里人的轮廓或者树的轮廓就是特征,而我们是不需要知道这个人长得怎么样的。原创 2022-11-28 18:55:15 · 6391 阅读 · 1 评论