自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

bubu_的博客

bubu&yukiiiii

  • 博客(31)
  • 收藏
  • 关注

原创 2022吴恩达机器学习(Deep learning)课程对应笔记28:机器学习开发过程的迭代与评价指标

下载带有参数的神经网络,这些参数已经在与算法相同输入类型的大模型数据集(文本,图像,音频)上预先训练过了。进一步训练(微调)这个网络,在你自己的数据集上。下面介绍下一个完整的机器学习系统的工作周期。以语音识别为例。定义你的项目范围收集对应的数据训练模型,误差分析和迭代提升部署在产品上。

2023-03-27 16:05:16 221

原创 2022吴恩达机器学习(Deep learning)课程对应笔记27:评估模型的方法

2022吴恩达机器学习(Deep learning)课程对应笔记27。

2023-03-22 17:59:17 149

原创 2022吴恩达机器学习(Deep learning)课程对应笔记26:优化和网络层

2022吴恩达机器学习(Deep learning)课程对应笔记26。

2023-03-22 14:45:18 126

原创 2022吴恩达机器学习(Deep learning)课程对应笔记25:多分类

2022吴恩达机器学习(Deep learning)课程对应笔记25。

2023-03-22 14:17:24 124

原创 2022吴恩达机器学习(Deep learning)课程对应笔记24:训练神经网络

2022吴恩达机器学习(Deep learning)课程对应笔记24。

2023-03-21 21:55:13 228

原创 2022吴恩达机器学习(Deep learning)课程对应笔记23:深度学习基础

2022吴恩达机器学习(Deep learning)课程对应笔记23。

2023-03-21 20:46:11 206

原创 2022吴恩达机器学习(Deep learning)课程对应笔记22:过拟合与正则化

2022吴恩达机器学习(Deep learning)课程对应笔记22。

2023-03-21 15:14:08 104

原创 2022吴恩达机器学习(Deep learning)课程对应笔记21:分类问题(逻辑回归)

2022吴恩达机器学习(Deep learning)课程对应笔记21。

2023-03-21 13:40:43 104

原创 2022吴恩达机器学习(Deep learning)课程对应笔记20:特征工程&多项式回归

2022吴恩达机器学习(Deep learning)课程对应笔记20特征工程&多项式回归更新时间:2023/03/20特征工程特征工程指的是选择特征,选择特征对模型的影响巨大多项式回归多项式回归就是xnx^nxn。对于多项式回归来说,特征缩放显得更加重要。对于多项式回归来说,特征缩放显得更加重要

2023-03-21 10:12:42 86

原创 2022吴恩达机器学习(Deep learning)课程对应笔记19:检查梯度下降是否收敛&学习率选择

当我们在左梯度下降是,应该怎么检查梯度下降是否收敛呢?下面是梯度下降的公式值得思考的是,如何保证梯度下降正确的工作,minw⃗bJw⃗bminwb​Jwb,正常的迭代曲线应该如下如所示,随着迭代轮数的增加,损失函数的值在不断下降。下图就可以看出梯度下降是否在正确工作。另外你可以做一个自动收敛测试,设置一个ε0.001ε0.001,当的值小于εε时,通常认为已经收敛了。

2023-03-20 22:25:49 77

原创 2022吴恩达机器学习(Deep learning)课程对应笔记18:特征缩放

本节将要介绍的内容是特征缩放,这一操作可以让梯度下降得更快。假设x1x_{1}x1​表示的是房间的大小x1∈3002000x1​∈3002000x2x_{2}x2​表示房子的房间数量,x2∈05x2​∈05Housex12000x25price500kHousex1​2000x2​5price$500k那么参数w1w_{1}w1​和参数w2w_{2}w2。

2023-03-20 22:00:35 66

原创 2022吴恩达机器学习(Deep learning)课程对应笔记17:多元回归的梯度下降法

首先要统一一下符号说明。就是向量化后的多元回归的符号表示。下面是比较一下只有一个特征的线性回归和有多个特征的多元回归之间的梯度下降的区别。

2023-03-20 20:58:30 62

原创 2022吴恩达机器学习(Deep learning)课程对应笔记16:向量化

太简单了不详细讲了就是说向量化的好处是可以避免很多for训练,会加快计算的速度。

2023-03-20 17:22:15 85

原创 2022吴恩达机器学习(Deep learning)课程对应笔记15:多线性回归

回忆一下我们之前讲到的线性回归案例,在预测房价时,我们只有一个输入变量,也就是一个特征,所以模型是fwbxwxbfwb​xwxb但是现在,我们在预测房价时知道了更多的信息,也就是更多的特征(xx1x2x3x4xx1​x2​x3​x4​x1x_1x1​表示房子面积,x2x_2x2​表示房子的卧室数量x3x_3x3​表示房子的楼层x4x_4x4​表示房子建筑年龄fwbxwxbf。

2023-03-20 17:14:48 65

原创 2022吴恩达机器学习(Deep learning)课程对应笔记14:线性回归中的梯度下降

回忆一下我们之前讲到的章节,线性回归模型fwbxwxbfwb​xwxb损失函数是Jwb12m∑i1mfwbxi−yi2Jwb2m1​∑i1m​fwb​xi−yi2梯度更新方式,重复下面的式子,直到收敛(即梯度为0,∂∂wJw0∂w∂​Jw0ww−α∂∂wJwb→1m∑i1mfwbxi−yixiww−α∂w。

2023-03-20 16:37:50 109

原创 2022吴恩达机器学习(Deep learning)课程对应笔记13:学习率

学习率在机器学习中扮演着很重要的角色,正如上节讲到参数www的更新方式ww−α∂∂wJwbww−α∂w∂​Jwb中所示,学习率也与www的更新有关。如果学习率α\alphaα选择得太小,那么迭代收敛的速度就会很慢,同时如果迭代到局部最小值点的时候,很有可能会陷入到局部最小值的附近。如果学习率α\alphaα选择得太大,那么很有可能在更新www时,错过最佳的www值使得JwJ(w)Jw错过最小值点。也有可能导致www。

2023-03-20 16:06:23 88

原创 2022吴恩达机器学习(Deep learning)课程对应笔记12:梯度下降3

下面是具体实现梯度下降算法。w和bw和bw和bww−α∂∂wJwbww−α∂w∂​Jwbbb−α∂∂bJwbbb−α∂b∂​Jwb其中α\alphaα是学习率,我们要同时更新w和bw和bw和b来是模型不断下降。同时更新w和bw和bw和btempww−α∂∂wJwbwtempww=temp\_wtempww−α∂w∂​。

2023-03-20 15:47:12 67

原创 2022吴恩达机器学习(Deep learning)课程对应笔记11:梯度下降2

下面是具体实现梯度下降算法。w和bw和bw和bww−α∂∂wJwbww−α∂w∂​Jwbbb−α∂∂bJwbbb−α∂b∂​Jwb其中α\alphaα是学习率,我们要同时更新w和bw和bw和b来是模型不断下降。同时更新w和bw和bw和btempww−α∂∂wJwbwtempww=temp\_wtempww−α∂w∂​。

2023-03-20 12:23:14 83

原创 2022吴恩达机器学习(Deep learning)课程对应笔记10:梯度下降1

上一节讲到的例子,是我们试了很多个w和bw和bw和b的值,最终找到了最小的JJJ,这种方法是非常麻烦并且不一定每次都能找到使代价函数最小的那个w和bw和bw和b的值。我们期望能够有一种固定的方法帮助我们找到最合适的w和bw和bw和b的值,从而使得代价函数JJJ的值最小。这种方法我们把它称为梯度下降。如上图,梯度下降是一种可以用来优化任何fff的算法,不仅仅是线性回归模型。w和bw和bw和b是初始时随机的两个值,可以设置为w0b0。

2023-03-20 10:10:08 70

原创 2022吴恩达机器学习(Deep learning)课程对应笔记9:可视化代价函数

下面是我们的模型当w0.06b0w=0.06,b=0w0.06b0时,JJJ随www的变化过程如下图右当w0.06b50w0.06b50时,JJJ随w和bw和bw和b的变化过程如下图,它是一个三维空间,这时JJJ的值同时取决于w和bw和bw和b调整w和bw和bw和b的值是的JJJ的值逐渐向minimum value靠近,如下图下面的例子是线性回归的代价函数可视化例子,通过一步步调整w和bw和bw和b。

2023-03-19 22:52:14 111

原创 2022吴恩达机器学习(Deep learning)课程对应笔记8:损失函数计算实例

2022吴恩达机器学习(Deep learning)课程对应笔记8。

2023-03-19 22:17:38 100

原创 2022吴恩达机器学习(Deep learning)课程对应笔记7:代价函数(损失函数)1

上节讲到为了实现线性回归,我们首先就要去定义一个叫做代价函数的东西(也就是fff),它是评价模型的一个指标有助于我们去优化模型。下面你有一个训练集,输入特征是xxx,输出目标是yyy,你的模型是线性回归模型fwbxwxbfwb​xwxb。现在你用这个模型去拟合训练集的数据。w和bw和bw和b的术语称为参数,在机器学习的过程中,模型的参数是你在训练过程中可以调整的变量,用于改进模型。有时候参数w和bw和bw和b也被称为系数或权重。

2023-03-19 21:27:18 71

原创 2022吴恩达机器学习(Deep learning)课程对应笔记6:线性回归2

监督学习算法将输入一个训练集,输入特征,输出目标。模型的输出目标将是模型从我们的输入特征中学习到的正确答案。要训练模型,你输入训练集的特征和目标,然后你的监督学习算法会产生对应一些功能fff,这个函数通常被称为假设,那么有fxyfxy​其中fff被称为模型xxx被称为模型的输入特征y\hat{y}y​被称为模型的估计值,y\hat{y}y​是对模型的输出目标yyy的一种估计,它可能是真实值,也有可能不是真实值。这取决于你模型的准确性。

2023-03-19 20:40:51 63

原创 2022吴恩达机器学习(Deep learning)课程对应笔记5:线性回归1

2022吴恩达机器学习(Deep learning)课程对应笔记5。

2023-03-19 19:52:30 59

原创 2022吴恩达机器学习(Deep learning)课程对应笔记4:无监督学习2

无监督学习中只给输入inputx(x)x,但是没有输出标签y(y)y。算法不得不找到数据中的结构特征聚类:将相似的数据点聚类在一起。异常分析:可以找出数据中异常的数据点降维:可以把数据压缩到一个相当小的维度下面是问题哦,自行作答(答案是B和C。

2023-03-19 19:35:38 50

原创 2022吴恩达机器学习(Deep learning)课程对应笔记3:无监督学习1

2022吴恩达机器学习(Deep learning)课程对应笔记3。

2023-03-19 19:28:56 119

原创 2022吴恩达机器学习(Deep learning)课程对应笔记1:第一部分:监督学习:分类

监督学习的两种主要类型就是我们目前讲到的回归和分类。回归:预测结果是一个数字有无限多种可能预测结果分类:预测结果是一个种类预测结果的种类数量较少**

2023-03-19 18:47:13 148

原创 2022吴恩达机器学习(Deep learning)课程对应笔记1:第一部分:监督学习:回归

常见的监督学习是指构建inputx(x)x到对应outputy(y)y的映射。在训练的时候会给模型,训练数据和对应的标签,通过对比训练数据经过模型的输出y\hat{y}y​与训练数据到对应输出yyy的差距。也就是:learns from being given “right answers”.垃圾邮件过滤x=邮件,(0/1),1表示这是一封垃圾邮件(spam),反之则是0;语音识别x=音频,文本;机器翻译x=英语,西班牙语;线上广告x=广告和用户信息,

2023-03-19 16:45:30 90

原创 记录调试中出现的问题:RuntimeError: CUDA error: CUBLAS_STATUS_INTERNAL_ERROR when calling cublasCreate(handle)

记录调试代码中出现的问题:RuntimeError: CUDA error: CUBLAS_STATUS_INTERNAL_ERROR when calling cublasCreate(handle)`论文链接:ANKGE(2023aaai)因为直接pip install -r requirements.txt, 会出现报错torch1.8.0+cu111无法找到,所以偷懒直接下载了torch1.8.0,结果导致运行到AnKnn.py的117行:trans_emb = torch.mm(rel_emb *

2023-02-05 00:00:57 839 1

原创 (小白易懂)知识图谱嵌入论文复现:ConvE代码调试记录

(小白易懂)知识图谱嵌入论文复现:ConvE代码调试记录

2022-11-01 00:03:46 2206 17

原创 知识图谱学习

个人知识图谱研究相关学习过程博客发布计划

2022-06-24 00:02:15 275 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除