机器学习
文章平均质量分 81
无咎.lsy
所谓自由,不是随心所欲,而是自我主宰
展开
-
【机器学习】梯度下降与矩阵分解
在正式讲解之前,需要提前了解一些预备知识【预备知识】偏导数偏导数虽然和导数只有一字之差,但是却相差甚多,从它们的定义来看,偏导数是指对含有两个自变量的函数中的一个自变量求导,也就是说偏导数要求函数必须具备两个自变量。比如拿 z=f(x,y) 举例,如果只有自变量x变化,而自变量y固定(即看作常量),这时它就是x的一元函数,这函数对x的导数,就称为二元函数z对于x的偏导数,记做 fx(x,y) 。有如下函数 z = x2+ 3xy + y2,分别求 z 对于 x 、y 的偏导数。如下所示:.原创 2022-01-12 21:12:50 · 1268 阅读 · 0 评论 -
基础GAN实例(pytorch代码实现)
输出是长度为100的噪声(正态分布随机数)输出为(1,28,28)的图片linear1100---256linear2256--512linear3reshapenn.Tanh()#对于生成器,最后一个激活函数是tanh,值域-1到1)#定义前向传播#x表示长度为100的noise输入img=img.view(-1,28,28)#转换成图片的形式输入为为(1,28,28)的图片,输出为二分类的概率值,输出使用sigmoid的激活0-1BCEloss计算交叉熵损失。...原创 2022-07-16 22:24:22 · 7218 阅读 · 21 评论 -
【深度学习】损失函数(平均绝对误差,均方误差,平滑损失,交叉熵,带权值的交叉熵,骰子损失,FocalLoss)
损失函数是用于衡量模型所作出的预测离真实值(Ground Truth)之间的偏离程度。。俗话说,任何事情必然有它的两面性,因此,并没有一种万能的损失函数能够适用于所有的机器学习任务,所以在这里我们需要知道每一种损失函数的优点和...原创 2022-07-11 23:09:54 · 5960 阅读 · 0 评论 -
【经典卷积网络】ResNet理论讲解
我们知道在越深层的神经网络模型中,卷积层和池化层的数量就越多,而卷积和池化的目的是为了特征提取,所以理论上来讲越深层的网络会输出表示能力越强的特征 但是,我们发现在做实验时最深的56层网络得到了最高的错误率。说明了网络衰退的问题确实存在,即随着深度的增加,网络的性能会越来越差,残差网络就是解决这个问题的。那残差网络具体做了什么工作呢?下面来具体解释以上两点第一点(让深度网络后面的层实现恒等映射)的**解释**:恒等映射可以理解成:在某一层的输出已经很好的体现图像的特征了,后续的网络不能改变这些特征,即所谓恒原创 2022-07-11 22:31:57 · 331 阅读 · 0 评论 -
卷积代码实现
卷积代码实现原创 2022-07-09 15:22:07 · 1270 阅读 · 0 评论 -
手写数字代码识别(pytorch)实现
手写代码数字识别原创 2022-07-08 20:09:46 · 2575 阅读 · 0 评论 -
【机器学习】Logistic 回归(pytorch)实现
下面我们通过例子来具体学习Logistic回归:原创 2022-07-08 19:55:09 · 1029 阅读 · 1 评论 -
逻辑回归与多层神经网络的比较
以下例子用于比较逻辑回归和神经网络在处理分类问题时的差别原创 2022-07-08 19:10:56 · 838 阅读 · 0 评论 -
【机器学习】线性回归PyTorch实现
这个一篇基于pytorch框架下的线性回归代码,有详细的注释和可视化,有利于初学者的学习和巩固原创 2022-07-03 19:54:27 · 423 阅读 · 2 评论 -
多域海马体分割的对抗性持续学习
持续学习所面临的挑战是:防止数据灾难性的遗忘导致灾难性遗忘的主要原因是:多重的域数据来自不同的域,为了合理地用来自多个域的数据来解决一个任务,模型必须以一种领域不变的方式进行适应和学习。解决方法是:提出了一种利用两个或多个数据集同时可用性的架构,以对抗的方式学习内容和域之间的解纠缠。该方法的思路来源:从领域适应中获得灵感,并将其与大脑MRI中海马体分割的持续学习相结合结果:减少了灾难的遗忘,并优于最先进的持续学习方法。介绍:多域数据的有限可用性使得开发一个连续海马分割的通用模型变得困原创 2022-05-07 17:31:39 · 605 阅读 · 2 评论 -
基于双任务一致性的半监督医学图像分割
论文总结:基于双任务一致性的半监督医学图像分割背景:大多数现有的半监督学习(SSL)算法都倾向于通过扰动网络和/或数据来规范模型训练。观察到多/双任务学习关注具有固有预测扰动的不同级别的信息。目的:这篇论文主要致力于“明确的构建任务级正则化”。解决方法:首次提出了一种新的“双任务一致性半监督框架”。具体来说就是使用了一个双任务深度网络,它联合预测了一个像素级的分割地图和一个目标的几何感知水平集表示。通过一个可微的任务变换层,将水平集表示法转换为一个近似的分割映射。同时,我们引入了一种在水原创 2022-04-16 16:26:30 · 2863 阅读 · 0 评论 -
【机器学习】逻辑回归
这是一篇讲述逻辑回归的文章,其中讲到了:决策边界,代价函数及正则化。原创 2022-02-04 18:11:07 · 1111 阅读 · 0 评论 -
【机器学习】线性回归(超详细)
机器学习之线性回归,看懂这一篇就够了(超详细)。原创 2022-01-31 18:13:03 · 21392 阅读 · 13 评论 -
【机器学习】机器学习是什么?
机器学习(Machine Learning,简称 ML)是人工智能领域的一个分支,也是人工智能的核心,其涉及知识非常广泛,比如概率论、统计学、近似理论、高等数学等多门学科。目录1.1 何为机器学习1.1.1 机器学习非常重要1.1.2 关键术语1.1.3 机器学习的主要任务1.2 监督学习1.3 无监督学习1.1 何为机器学习一般情况下,人们很难直接从原始数据本身获取所需要的信息。例如,对于垃圾邮件的检测,侦测一个词语是否存在并没有太大的作用,然而当某几...原创 2022-01-21 19:16:17 · 5731 阅读 · 0 评论