![](https://img-blog.csdnimg.cn/20190927151124774.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
学习ML+DL
文章平均质量分 62
机器学习 - 吴恩达老师
神经网络俩篇博客 - 《神经网络与深度学习》
深度学习 - 李沐老师深度学习视频
深度学习 - 李宏毅老师深度学习视频
Bessie_Lee_gogogo
24届毕业生,已就业,后续内容输出至微信公众号:木子计算机领域学习。
方向:1、预测算法研究(梦想去总部做算法);2、CTF比赛(寻找初心);3、碎碎叨叨。
感谢大家关注,如果曾经的大学时期博客能让帮助到大家,希望后续工作时期公众号的博文也能帮助大家。
展开
-
批量提取SemEval 2014 Task 4-aspect_term的xml文件为csv
把XML数据转换为csv文件最后生成原创 2024-04-23 17:58:00 · 365 阅读 · 0 评论 -
43期《深入浅出Pytorch》课程 - Task01:PyTorch的安装和基础知识+前置知识打卡
之前李弘毅老师的视频中说过,深度学习再一次爆火的一部分原因是,可以用GPU进行并行运算了,大大减少训练模型时间,但是由于自己电脑配置太低,cuda不太能用,之前试过没有成功。由于之前系统学习过numpy并且参加过一些比赛,于是不在此赘述关于张量部分的知识,和numpy的基础很像,换个包名字就行(具体关于numpy的可以参考此链接。的(accumulated),这意味着每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需把梯度清零。对于并行运算,有一个李弘毅老师视频讲过,就类似下方这种(原创 2022-11-16 00:11:53 · 900 阅读 · 0 评论 -
[李宏毅深度学习作业] 作业1:ML2021Spring-hw1 COVID-19 Cases Prediction【以时间线为记录】
写在开头:此篇博客主要是记录李宏毅老师2021年春季的深度学习作业1的笔记过程,以时间的角度进行记录。COVID-19 Cases Prediction8月27号[初步操作]初步查看数据集+用基础的RF进行测试结果8月28号[运行样例代码]李宏毅助教代码运行+理解1、Setup Hyper-parameters [设置超参数]2、Load data [下载数据]3、Load model [下载模型]4、Start Training[开始训练]5、Testing[测试]6、Submit.原创 2022-08-30 16:33:25 · 3681 阅读 · 4 评论 -
[李宏毅老师深度学习视频] BERT介绍
1、self-supervised2、Bert怕的俩个任务2.1、masking input2.2.next sentence prediction3 pre-train and fine-tune4、Bert在nlp中的四大案例4.1、分类问题4.2、同长输出4.3、两句子分类4.4、QA问题(仅限答案在已知文本中)5、Bert的一些小问题解释6、why does Bert work?7、一些奇奇怪怪的Bert结果(玄学)...原创 2022-08-27 01:20:15 · 566 阅读 · 2 评论 -
[李宏毅老师深度学习视频] 生成式对抗网络(GAN)【持续更新】
在李宏毅老师的视频中,并没有一开始就讲解什么是GAN,他先引入一个问题,为什么会有生成式对抗网络呢?他采用了一个小游戏进行介绍。游戏说明:一个小精灵可以从一个出发点出发到任意画面的位置去,我们根据小精灵的到达位置去训练一个network模型,从而预测到小精灵的位置。然而,出现了一个很离谱的画面:小精灵在转弯的时候居然分裂成了两个,还带上了虚影(??这是什么离谱位置,转弯不成,直接分裂人物??)为什么会有这种分裂的问题出现呢?...原创 2022-08-26 22:46:26 · 1298 阅读 · 0 评论 -
[李宏毅老师深度学习视频] 用batch标准化的方式解决类神经网络训练问题+transformer【手写笔记】
但是常见的神经网络都不止一层,对于多层的神经网络而言,如果只是对输入的input向量进行正则化,后面经过权重变化得到的新的参数将也会面临崎岖的现象,故而会对后面的输出结果进行再次标准化,可是过度的标准化也会导致向量之间的耦合度过高,从而影响最终的output,所以我们需要适当的进行标准化(此步骤可以简称:玄学调参)decoder的起始步骤是依赖begin的最初结果得到的最后值,这个值再放入decoder的步骤中进行求得结果,所以说每一个输出都是会与下一个输出有紧密联系的。......原创 2022-08-17 01:03:08 · 360 阅读 · 0 评论 -
[李宏毅老师深度学习视频] 自注意力机制 self-attention【手写笔记】
本文讲述的是自注意力机制的内部矩阵运算细节以及自注意力机制可以运用的领域(CV、NLP、Grape),最后将自注意力机制与CNN、RNN进行对比(self-attention可以进行并行运算用GPU加速,而RNN不可)此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。...原创 2022-08-15 16:37:26 · 499 阅读 · 0 评论 -
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】
中间还介绍了Pooling池化的目的(pooling设计的根本就是减少运算量,将一些参数进行删减)以及为什么Alpha Go没有在算法里面采用pooling池化的原因(因为棋盘本身也就13×13的大小,在Alpha Go原文中,设置的初始是13×13×48,要是再做池化,估计结果会非常的不准确,而下棋要做到的就是步步准确)。此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。其中,CNN是从俩个角度进行介绍。...原创 2022-08-14 17:44:06 · 383 阅读 · 1 评论 -
[李宏毅老师深度学习视频] 类神经网络训练不起来的四大原因 【手写笔记】
此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。下面将由手写笔记配上李宏毅老师的ppt进行逐一解释。...原创 2022-08-14 00:14:34 · 282 阅读 · 0 评论 -
[李宏毅老师深度学习视频] loss训练不好的四大原因【手写笔记】
此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。第二类:一种是over fitting,一种是mismatch(train loss小,test loss大)。第一类:一种是modle bais,一种是optimization(train loss大);下面将由手写笔记配上李宏毅老师的ppt进行逐一介绍。Loss训练不好的原因有两类。...原创 2022-08-13 17:38:40 · 208 阅读 · 0 评论 -
[李宏毅老师深度学习视频]深度学习全连接层+反向传播机制【手写笔记】
此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。原创 2022-08-12 22:58:31 · 205 阅读 · 0 评论 -
[李宏毅老师深度学习视频] 机器学习深度学习基本内容【手写笔记】
此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。原创 2022-08-11 14:30:21 · 337 阅读 · 0 评论 -
图像分类 - KNN算法和线性分类【斯坦福大学CS231课程学习记录】
文章目录cs231视频学习记录一、图像分类 - KNN算法1、PPT记录2、对应笔记二、图像分类 - 线性分类1、PPT记录2、对应笔记cs231视频学习记录一、图像分类 - KNN算法1、PPT记录123456782、对应笔记二、图像分类 - 线性分类1、PPT记录12 数据集34 具体展示5672、对应笔记...原创 2022-03-09 16:58:07 · 1150 阅读 · 0 评论 -
动手学深度学习中问题:找不到d2l包,No module named ‘d2l’【pytorch李沐】
d2l是字母d,数字2,字母l的组合【不是数字1】解决办法:直接在Anaconda中的Prompt里面输入pip install -U d2l或者在每次程序运行之前,都输入一个!pip install -U d2l如果下载成功,重启jupyter就行如果报错:ERROR: Could not install packages due to an EnvironmentError:[WinError 5] 拒绝访问。:‘D:\Anaconda3\Lib\site-packages\~um原创 2022-02-09 16:37:43 · 12667 阅读 · 6 评论 -
动手学习深度学习 - 自定义csv文件数据处理并转化为tensor格式【课后练习】
位置:记录:原创 2022-01-25 23:15:51 · 1217 阅读 · 0 评论 -
动手学深度学习【李沐老师】 - - 学习路径
视频1:B站【直接进入】视频2:课程进入【点击视频回放即可】代码:对应代码窗口课件:课件ppt链接原创 2022-01-25 21:47:18 · 776 阅读 · 0 评论 -
【神经网络与深度学习】卷积神经网络 ① 卷积 ② 互相关 ③ 卷积层和池化层 ④ 四种典型的卷积网络 ⑤ 转置卷积 ⑥ 空洞卷积 ⑦ 微步卷积
【神经网络与深度学习】卷积神经网络 ① 卷积 ② 互相关 ③ 卷积层和池化层 ④ 四种典型的卷积网络 ⑤ 转置卷积 ⑥ 空洞卷积 ⑦ 微步卷积原创 2022-01-22 15:16:09 · 3702 阅读 · 0 评论 -
【神经网络与深度学习】各种激活函数+前馈神经网络理论 ① S型激活函数 ② ReLU函数 ③ Swish函数 ④ GELU函数 ⑤ Maxout单元
文章目录一、常见的三种网络结构二、激活函数(1)S型激活函数logistic函数和Tanh函数:hard-logistic函数和hard-Tanh函数:(2)ReLU函数带泄露的ReLU【leaky ReLU】带参数的ReLU【Parametric ReLU或者PReLU】指数线性单元【ELU】ReLU函数的平滑版本【SoftPlus】四种函数的图像(3)Swish函数(4)GELU函数(5)Maxout单元三、前馈神经网络一、常见的三种网络结构我们熟知的网络结构有三种,分别是前馈神经网络,记忆神经网原创 2022-01-21 15:37:34 · 3536 阅读 · 2 评论 -
《scikit-learn机器学习》 - PCA算法原理解释和k-均值算法【单纯理解】
目录PCA算法k-均值算法PCA算法PCA算法是Principal Component Analysis的简称它是一种分析算法,目的是将维度约减的算法白话文讲就是把高维度的数据在损失最小的情况下转化为低维度的数据的算法n维的降成k维的时候,需要k个向量:如果我们要将一个二维的数据降成一维的数据,那么需要有一个u如果我们要将一个三维的数据降成二维数据,就需要一个u1和一个u2要向量就是把数据的投影记录下来,然后最终使得投影的误差最小化,就是PCA算法的解法在期间,我们会遇到很多问题,比原创 2021-11-23 19:38:12 · 731 阅读 · 0 评论 -
《scikit-learn机器学习》朴素贝叶斯① - 贝叶斯定理+朴素贝叶斯分类法+连续值的处理
目录:贝叶斯定理朴素贝叶斯分类法连续值的处理贝叶斯定理就和我们高中的那个,在一个条件下,再进行另一个条件的概率求解问题朴素贝叶斯分类法这个公式推导我没看懂,但是我知道它大体是讲什么的。举一个简单的例子:这个图片是驾龄,车速和性别的数据,我们接下来将会根据这个数据来开展我们的朴素贝叶斯的介绍。问题:假设现在有一个人是驾龄2年,还开车速度80码,判断是男是女?解决问题的步骤:算出是女性的概率相对值算出是男性的概率相对值最后比较,或者算出绝对概率值,判断是男是女具体步骤:原创 2021-11-22 20:22:35 · 1041 阅读 · 0 评论 -
《scikit-learn机器学习》支持向量机① - SVM+核函数+sklearn中的SVM 基本算法原理理解
文章目录SVM算法原理公式推导过程SVMsupport vector machine 支持向量机(二分类模型)这是一种分类算法,针对于数据小的情况,非线性以及高维的分类问题。在小数据的情况下,神经网络的的拟合算法都没有svm好算法原理svm - 构造出最大间距的边界,可以提高分类算法的鲁棒性公式推导过程其中:w为超平面方向;b为位移项,决定距离;于是:求解svm算法,就是满足约束条件的前提下,求解||W ^2||的最小值但是:对于那种线性不可分的数据集,用上面这种方法找不到分隔超平原创 2021-11-22 17:19:26 · 1208 阅读 · 0 评论 -
《scikit-learn机器学习》决策树③ -泰坦尼克号幸存者预测【思路+代码】
泰坦尼克号预测:1、思路1.1 数据处理1.2 选择模型并训练1.3 用前剪枝对模型进行优化1.4 试试其他的决策树模型2、具体代码实现(代码来源于本书)1、思路1.1 数据处理删除一些与预测无关的数据修改一些数据,比如男为1,女为0将一些缺失的数据进行补充或者删除找到target(预测的值)将数据集进行分割:分为训练集和交叉训练集1.2 选择模型并训练由于本文的内容为决策树,所以使用决策树的算法进行模型训练当我们用决策树里面的ID3算法(信息熵)来进行训练的时候,可能会出现过拟合现原创 2021-11-19 10:50:31 · 2099 阅读 · 0 评论 -
《scikit-learn机器学习》决策树④ - 集合算法:Bagging自助聚合算法+boosting正向激励算法+随机森林+ExtraTrees
文章目录集合算法1、 自助聚合算法:Bagging2、 正向激励算法:boosting3、随机森林4、ExtraTrees集合算法集合算法是一种元算法,它支持少数服从多数的原则,保存在sklearn.ensemble 包中1、 自助聚合算法:Bagging自助聚合算法大名叫:Bootstrap Aggregating它采取有放回方式的取样:一个拥有m个数据的数据集,随机抽取一个数据放入一个新的数据集k中,然后再将这个抽取的数据放回m数据集中,再随机抽取一个数据再放入k中,就这样依次循环n次,得到原创 2021-11-19 11:24:25 · 781 阅读 · 0 评论 -
《scikit-learn机器学习》决策树② - 决策树的构建ID3算法和CART算法+离散化+正则化+剪枝算法+算法参数+ID3的改进:C 4.5
文章目录决策树的构建(ID3算法)离散化正则化基尼不纯度进行决策树构建(CART算法)剪枝算法前剪枝:后剪枝:算法参数:决策树的多种构建算法决策树的构建(ID3算法)分为四步:计算数据集划分前的信息熵遍历没有被划分的特征,计算根据每个特征划分数据集的信息熵选择信息增益最大的特征作为数据划分结点来划分数据递归处理被划分后的数据的子数据集,从未被选择的特征中继续划分数据递归终止条件:特征都用完了信息增益已经足够小,快趋近于0了ID3算法:使用信息增益作为特征指标的选择的决策树算法原创 2021-11-18 21:13:20 · 1079 阅读 · 0 评论 -
《scikit-learn机器学习》决策树① - 算法原理+信息增益【信息熵的具体运算】
决策树原理:选择一个特征进行测试,然后根据这个测试再分为多个子数据集,最后一步步划分数据集。但是我们如何选择哪些特征分布,以什么为标准呢?由于要解决这个问题,我们映入原创 2021-11-17 19:46:36 · 679 阅读 · 0 评论 -
《scikit-learn机器学习》 逻辑回归算法 - 乳腺癌预测
本章小结:首先加载sklearn中的内部的乳腺癌文件,再提取数据特征,分析已有的特征,如果特征值比较少,那么可以根据目前已有的特征构造新的特征。然后将数据集分为训练集和测试集,由于数据比较少,所以用20%的比例分离数据集,再用logistic回归算法进行预测,分别用degree = 1 或者 2 或者等等用来模拟数据,选出最适合的模型,再绘制学习曲线,对模型进行进一步的测试,最终选取合适的模型。注意:如果特征值有差异过大,可以进行正则化表示。导入需要的库%matplotlib inlineim原创 2021-11-09 21:07:36 · 7762 阅读 · 1 评论 -
《scikit-learn机器学习》波斯顿房价预测(线性回归预测)
本节内容:首先是要导入数据,看数据有多少个样本,有多少个特征标签,对其进行模型训练,用线性回归的方式对80%的训练集进行训练,发现训练的score比较低,优化为多项式模型,画学习曲线判断哪个多项式最符合,然后就训练出房价。导入模块%matplotlib inlineimport matplotlib.pyplot as pltimport numpy as np导入数据并且看有多少样本from sklearn.datasets import load_bostonboston = lo原创 2021-11-09 08:31:27 · 2505 阅读 · 0 评论 -
《scikit-learn机器学习》 使用线性回归算法拟合正弦函数
本小节内容:开始的时候,是从三个方面介绍线性回归算法,分别是单变量,多变量,梯度下降。由于之前这个已经记录过博客,在此就不加以赘述了,可以翻看以前的机器学习栏目中的博客,具体公式推导已经全部写了。主要来讲一下如何利用线性回归算法去拟合正弦函数首先我们要随机生成一些正弦函数上的点,然后再生成一些噪声点(不在正弦函数上的点),最后将这些点进行格式化成sklearn试用的点然后用多阶函数去拟合这些点,最后算出评分,再将这些拟合的数据构建成一个二维的坐标图,直观的观测出拟合的效果生成点并且格式数组n原创 2021-11-08 13:16:25 · 2312 阅读 · 1 评论 -
《scikit-learn机器学习》糖尿病预测(KNN)
本章看完以后的感受:1、我们先对数据进行加载,由于确定了数据是没有问题的,所以不用对数据进行清洗2、然后确定每行每列,找到我们需要的目标值,也就是target,在本书中的target为0或者13、找到目标值以后,将目标值与非目标值分离,再将数据按照比例分为测试集和训练集。4、选择的是knn的三种模型,一种是原基础的knn,一种是带有权重的knn,还有一种是确定了半径的knn(上一篇中的knn的俩个变异就是后面的这俩种)5、然后对他们三个进行训练集训练,选取最佳的一个模型,在对模型进行训练,通过学原创 2021-11-07 22:00:15 · 6906 阅读 · 3 评论 -
《scikit-learn机器学习》K-近邻算法核心思想+算法变式+K近邻算法进行分类+k近邻算法进行回归拟合
K-近邻算法核心思想在一个数据集中已经确定了类别(都确定了标记),给入一个数据n(未标记),通过该数据周围的k个数来判断预测该数据n属于数据集中的哪个类别。优点:准确性高缺点:每一个未标记的点都需要计算所有点与他的距离,内存占用多k值越大,模型的偏差越大,但是k值很大的时候,可能会欠拟合;k值越小,方差也就会越大,但是k值太小,会造成过拟合算法变式变种1:变种2:K近邻算法进行分类1、centers:是中心点的值%matplotlib inlineimport matpl原创 2021-11-06 11:44:16 · 234 阅读 · 0 评论 -
《scikit-learn机器学习》 第三章机器学习理论基础:过拟合与欠拟合图像绘制+成本函数+模型准确性+学习曲线+查准率和召回率+F1 Score
过拟合与欠拟合过拟合:对已有数据拟合的非常好,但是对新数据拟合很差欠拟合:对已有数据和新数据拟合都不好1、创建0到1中20个随机点,带入y中的表达式%matplotlib inlineimport matplotlib.pyplot as pltimport numpy as npn_dots = 20x = np.linspace(0, 1, n_dots) # [0, 1] 之间创建 20 个点y = np.sqrt(x) + 0.2*np.ran原创 2021-11-06 08:14:59 · 1461 阅读 · 0 评论 -
《scikit-learn机器学习》矩阵乘法+广播条件对非等行等列数组进行相加+内置函数exp等
矩阵乘法 - dot( )广播条件对非等行等列数组进行相加广播条件错误案例:正确例子:内置函数 - cos,sqrt,exp等原创 2021-11-03 13:59:02 · 108 阅读 · 0 评论 -
《scikit-learn机器学习》 Python代码的埃拉托斯特尼筛法:找出一定范围内所有的素数
埃拉托斯特尼筛法先用2去筛,即把2留下,把2的倍数剔除掉;再用下一个素数,也就是3筛,把3留下,把3的倍数剔除掉;接下去用下一个素数5筛,把5留下,把5的倍数剔除掉;不断重复下去…import numpy as np a= np.arange(1, 101) n_max = int(np.sqrt(len(a))) is_prime = np.ones(len(a),dtype=bool) #创建 100 个元素的数组,用来 示记是否为质数is_prime[0] = False for i i原创 2021-11-02 21:31:44 · 823 阅读 · 0 评论 -
《scikit-learn机器学习》 Python的快捷键+魔法命名+linspace()+eye()+Tab键的使用+[:],[:4],[3:8]的使用
文章目录python快捷键魔法命令linspace()的使用eye() - 单位矩阵tab键的使用[:4] 和 [3:7] 和 [4:]的使用python快捷键魔法命令linspace()的使用eye() - 单位矩阵tab键的使用[:4] 和 [3:7] 和 [4:]的使用...原创 2021-11-02 21:26:15 · 87 阅读 · 0 评论 -
《scikit-learn机器学习》【1】 机器学习分为哪俩类,区别是什么+无监督学习的优势在于什么+机器学习应用开发的典型步骤有哪些+ 为什么要把数据划分为训练集和数据集
问题汇总机器学习分为哪俩类,区别是什么?【自己作答】机器学习分为监督学习和无监督学习。监督学习是一种确定好了分类标准,然后进行分类训练,但是无监督学习就是那种,一个总体里面有好几个类别,需要机器自己通过算法去进行区分【标准答案】按照学习方式的不同,可以将机器学习划分为几种类型:监督学习(supervised learning)、无监督学习(unsupervised learing)、半监督学习(semi-supervised learning)、强化学习(rein-forcement learn原创 2021-11-02 13:13:58 · 843 阅读 · 0 评论 -
跟着吴恩达老师学习机器学习的第十天 - 神经网络的代价函数+通过正向传播过度理解到反向传播
DAY10课程9.1代价函数1、拟合神经网络在分类问题的应用2、神经网络的代价函数课程9.2反向传播算法1、2、3、课程9.3理解反向传播1、2、3、课程9.4理解注意:展开参数1、2、3、课程9.5梯度检测1、2、3、课程9.6随机初始化1、2、3、课程9.7组合到一起1、2、3、课程9.8无人驾驶1、2、3、课程9.1代价函数1、拟合神经网络在分类问题的应用视频图片:二元分类和多类别分类问题理解:二元分类和多类别分类问题2、神经网络的代价函数视频图片:神经网络的代价函数理原创 2021-08-20 19:49:22 · 136 阅读 · 6 评论 -
跟着吴恩达老师学习机器学习第九天 - 机器识别汽车引入神经网络+数学定义的神经网络+神经网络向量化+单个神经元如何用来计算逻辑函数+图形模拟+神经网络的多元分类
Day8课程8.1课程说明1、用logistic回归的弊端2、3、课程8.2课程说明1、2、3、课程8.3课程说明1、2、3、课程8.4课程说明1、2、3、课程8.5课程说明1、2、3、课程8.6课程说明1、2、3、课程8.7课程说明1、2、3、课程8.1课程说明1、用logistic回归的弊端图片1:用logistic回归的弊端理解1:用logistic回归的弊端2、图片1:理解1:3、图片1:理解1:课程8.2课程说明1、图片1:理解1:2、图原创 2021-08-19 23:26:02 · 189 阅读 · 3 评论 -
跟着吴恩达老师学习机器学习第八天 - 线性回归与logistic回归的过度拟合问题+线性回归,logistic回归与高级算法的正则化
Day8课程7.1课程说明1、2、3、课程7.2课程说明1、2、3、课程7.3课程说明1、2、3、课程7.4课程说明1、2、3、课程8.1课程说明1、2、3、课程8.2课程说明1、2、3、课程8.3课程说明1、2、3、课程8.4课程说明1、2、3、课程8.5课程说明1、2、3、课程8.6课程说明1、2、3、课程8.7课程说明1、2、3、课程7.1课程说明1、图片1:理解1:2、图片1:理解1:3、图片1:理解1:课程7.2课程说明1、图片1:理解1:2、图片1:原创 2021-08-18 17:15:46 · 237 阅读 · 1 评论 -
跟着吴恩达老师学习机器学习第六天 - 正规方程在不可逆的情况下的解决方案以及解释+二分类问题中线性回归方程与logistic回归方程的区别
Day6课程4.7正规方程在不可逆的情况下的解决方案课程4.7正规方程在不可逆的情况下的解决方案图片1:理解1:图片2:原创 2021-08-17 13:33:23 · 163 阅读 · 1 评论 -
跟着吴恩达老师学习机器学习的第七天 - logistic回归的假设函数math表达式+决策界限+代价函数+简化代价函数和logistic回归方程的梯度下降+用逻辑回归解决多类别分类问题
DAY7课程6.2logistic回归的假设函数math表达式1、logistic回归的假设函数表达式的math公式2、logistic回归的假设函数表达式使用课程6.3决策界限1、回顾公式2、决策边界3、各种各样的决策边界课程6.4代价函数1、logistic回归方程画出non - convex函数2、Cost函数图形课程6.5简化代价函数和logistic回归方程的梯度下降1、logistic回归模型的代价函数2、logistic回归方程的梯度下降与线性回归的梯度下降算法区别课程6.6用octave实现原创 2021-08-17 23:21:54 · 795 阅读 · 2 评论