自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 机器学习——关于极大似然估计法的一些个人思考(通俗易懂极简版)

个人理解:极大似然估计法认为每一个标记c都对应一种概率分形式,比如说正态分布、均匀分布等等,而我们求条件概率就是求特定分布下的某一值的概率,比如说,标记c对应的是正态分布,求P(x=1|c),即求在这个正态分布下的x=1的概率是多少,当正态分布曲线画出来后,横轴代表数据点的值,纵轴代表数据点在该分布下的概率。最近在回顾机器学习的一些相关理论知识,回顾到极大似然法时,对于极大似然法中的一些公式有些迷糊了,所以本文主要想记录并分享一下个人关于极大似然估计法的一些思考,如果有误,请见谅,欢迎一起前来探讨。

2024-07-09 16:41:05 837

原创 机器学习——强化学习状态值函数V和动作值函数Q的个人思考

最近在回顾《西瓜书》的理论知识,回顾到最后一章——“强化学习”时对于值函数部分有些懵了,所以重新在网上查了一下,发现之前理解的,包括网上的大多数对于值函数的描述都过于学术化、公式化,不太能直观的理解值函数以及值函数的推导,我琢磨了一下,所以这篇文章想通过流程图的形式跟大家分享一下我个人对值函数的思考,如果有误,请见谅。

2024-07-01 16:33:20 1190

原创 机器学习——强化学习中的“策略π”的个人思考

对此,我在网上查了一些资料,但是大部分人都是一笔带过,或者是照本宣科,看的我仍然很迷惑,然后自己琢磨了一下,所以这篇文章主要想分享一下个人对于强化学习中的“策略π”的看法,如果有误请见谅,欢迎一起进行探讨。策略执行T步的平均奖励的期望,定义式如下图所示。假设上图中的第③种路径不存在,只剩①和②两种路径,那么我们要算S0到S3的积累状态值函数,如果认为part1部分存在一个策略,part3部分存在一个策略,那从S0到S3的过程中就是在执行两个策略,那么就直接违背了积累状态值函数V是在执行某。

2024-06-28 15:08:08 1291

原创 机器学习python实践——关于管道模型Pipeline和网格搜索GridSearchCV的一些个人思考

最近在利用python跟着指导书进行机器学习的实践,在实践中使用到了Pipeline类方法和GridSearchCV类方法,并且使用过程中发现了一些问题,所以本文主要想记录并分享一下个人对于这两种类方法的思考,如果有误,请见谅,欢迎大家一起前来探讨。本文主要想重点记录一下Pipeline类方法和GridSearchCV类方法在使用过程中的一些不易察觉的注意事项,花不多说,进入正文。

2024-06-25 15:56:02 734

原创 机器学习python实践——关于数据集划分和数据标准化的相关问题的思考

对训练集和测试集进行fit和transform,最后训练集的数据X1(0,1)就变成了X1'(0,0),测试集中的数据X2(0,2)变成了X2'(0,0),数据集的形态就被改变了,这时利用变换后的训练集数据X1'(0,0)算出的模型还是那个模型,但是我们再将变换后的测试集数据X2'(0,0)带入到模型中,模型告诉我们X2和X1重合,对比原始数据,不难发现,模型预测结果错误。因此,如果小明在搭建题库之前,把训练集和测试集分开,让题库中仅含有学生做过的题目,那么3号的试卷就可以真正的掌握学生的学习情况。

2024-06-21 16:48:16 1185

原创 机器学习python实践——由特征选择引发的关于卡方检验的一些个人思考

其实很简单,只用将数据离散,然后分段即可,并且各段之间互不相交,比如说特征X,他的取值范围是(1,10),然后抽样十次,十次的结果是[1,2,3,4,5,6,7,8,9,4],我们将X分成两段,其中,第一段A1=(1,5],第二段A2=(5,10),然后将抽样结果按照每段的取值范围放入相应的段中即可,即A1:{1,2,3,4,4,5};可能很多小伙伴已经发现了,上面的例子是一个很特殊的情况,自变量或者特征的值只有两个,因变量或者标签的值也只有两个,那如果自变量或者因变量的值不止两个该怎么办呢?

2024-06-18 17:48:51 1408

原创 机器学习python实践——关于ward聚类分层算法的一些个人心得

通过代码我们知道输入的是数组X,输出的是链接数组Z,其中X是一个8行1列的二维数组,每一行数据都代表着一个位置标记,同时,根据网上大佬的说法Z是一个n行4列的数组,前两列表示要聚类的簇的编号,第三列表示两个即将聚类的簇之间的距离,第四列表示聚类所得的新簇中含有的样本个数。另外,我解释一下,可能很多人在网上看到的离差平方和公式跟我给出的有点区别,但是两者是一样的,只是网上大部分是拆开并且化简过得,而我这个是和起来的,同样因为我ward算法看的是何晓群老师的书,所以跟书上的表达方式保持一致。

2024-06-13 09:58:25 1825

原创 机器学习python实践——数据“相关性“的一些补充性个人思考

因为独立意味着“随机”,而且是完全随机,这意味着没有任何规律可以寻找,这样特征之间才能保持互不影响,就好像,你都猜不到我心里想的,你怎么可能跟我同频共振,既然都没有没有规律可循,那么数据特征之间也就不存在“同增同减”或者“一减一增”这样的规律,也就表明数据特征之间不存在一致或相反的变化趋势,即数据特征之间不相关。在上一篇“数据白化”的文章中,说到了数据“相关性”的概念,但是在统计学中,不仅存在“相关性”还存在“独立性”等等,所以,本文主要对数据“相关性”进行一些补充。一个是“不相关”和“独立性”的区别。

2024-06-11 10:37:32 671

原创 机器学习python实践中关于数据预处理——“数据白化”的一些个人思考

先不看协方差公式最外层的期望,仅先看里层的(X-E[X])(Y-E[Y])公式,根据上面说到的,我们可以比较特征与期望的大小来判断该特征的变化趋势,那么(X-E[X])就可以判断特征X的变化趋势,(Y-E[Y])就可以判断特征Y的变化趋势,而两者的乘积就可以帮助我们判断两者的变化趋势是否一致,如果两者的乘积是大于零的,则表示两者变化趋势相同,如果两者乘积小于零,则表示两者的变化趋势相反,如果两者乘积为零,则无法判断两者的变化趋势。之所以当两者乘积时无法判断两者的变化趋势,

2024-06-06 17:43:13 1254

原创 机器学习python实践中sklearn.decomposition.PCA 主成分分析的三个关键属性的个人思考

最近在利用python对机器学习进行实践,学到PCA的时候,说实话,有点懵,然后吭哧吭哧去把PCA的原理搞懂了,然后在编程的时候,又发现无法将sklearn.decomposition.PCA主成分分析中的相关属性与理论联系起来,所以这篇文章,主要是依托互联网大佬给出的简单示例,去给出python编程时PCA类方法中的相关属性的理论对照,同时记录一下,如果有误请见谅,欢迎一起探讨。结合数据和图像,不难发现,矩阵X中的五个数据点,都从原坐标系中投影到了斜线上,斜线的方向即可用标准化特征向量。

2024-06-05 16:05:04 779

原创 机器学习python实践过程中对数据预处理中StandardScaler标准化方法的一些个人思考

2、数据点之间的相对方位没有发生变化,但是数据点之间的距离却减小了(简单的说就是小明站在小红东偏西30°的方向上,且与小红之间的直线距离为100m,经过StandardScaler方法处理后,小明仍然站在小红东偏西30°的方向上,但是与小红之间的直线距离变成了1m)其中,u1、u2分别为数据点不同特征的均值,σ1、σ2分别为数据点不同特征的标准差,StandardScaler方法处理后u1=u2=0,σ1=σ2=1。第一个步:在坐标系中将原数据整体进行平移操作,使得原数据两个特征的的均值均为0。

2024-06-04 14:02:06 556

原创 机器学习——关于SVM的些许问题的个人思考

最近在利用python对机器学习进行实践,因为之前我是先完整的刷了一遍周志华老师的《西瓜书》才开始的实践活动,因此,时间跨度很久,以至于对于SVM的相关理论有些生疏了,甚至关于SVM的一些之前没注意到的问题,现在暴露了出来,所以这篇文章主要是想跟大家分享一下个人关于SVM的一些令人纠结的问题的思考,同时记录一下,如果有误请见谅,欢迎一起探讨。观察上面的直线方程1和直线方程2,我们不难发现,两者是等价的,即通过描点法将直线方程1和直线方程2分别在同一直角坐标系中画出,两条直线完全重合。仍然不确定,因为函数。

2024-05-31 16:56:35 906

原创 机器学习python实践中对于决策函数(decision_function)的一些个人思考

最近在利用python进行实践训练,但是跟着参考书学习到SVM的时候,示例代码里突然出现了一个函数——decision_function(),让我很懵逼,帮助文档里的英文翻译过来说啥决策函数、ovr、ovo之类的,让我整个人更晕了,因为我在理论部分参考的是周志华老师的《西瓜书》,而《西瓜书》中并没有对这些进行说明。,它就是一个决策函数,我们可以将样本点带入到这个方程中进行计算,即给决策函数一个输入,如果这个方程算出的结果>0,即输出结果>0,那么这个样本点将被分到“正样本”这一类;

2024-05-30 13:57:55 1350

原创 机器学习python实践过程中关于predict函数相关注意事项

最近在跟着相关指导书,利用python对机器学习的相关模型进行实战,但是其中有一个predict函数让我感到很头疼,然后查了一些资料,结合个人的总结,写下这篇文章,想跟大家一起探讨一下,如果我有哪里说错了请见谅,本人虚心接受批评指正。运行代码 print(type(np.array([X[312]])))可以知道它的类型是numpy.ndarray,即numpy数组。然后我们运行代码print("结果是:",gnb.predict(np.array([X[312]]))),代码正常运行,如下。

2024-05-27 17:03:15 579

原创 关于Numpy中的冒号(:)、省略号(...)以及布尔索引的一些个人看法

最近在利用python学机器学习,Numpy应该是在此领域内比较重要的一个库了,但是对于里面的一些索引问题,看了网上的一对资料,看完整个人都不好了,根本搞不清楚,然后自己琢磨了一下,现给出一些自己的看法,如果有误请见谅,欢迎一起探讨。冒号(:)可以在某一维度上,指定某一索引号后所有的所有数据,以及某两个索引号之间的所有数据,比如说a[0:2,0:2,1]的print打印结果是【[1,3],[7,9]】,对应到矩阵中就是第一、二行,第一、二列,第二纵上的数据。,对应到矩阵中就是第二行第三列的数据。

2024-05-24 16:28:44 724

原创 《西瓜书》15章一阶强化学习中的所举例子的解说

在看到《西瓜书》15章第4小节一阶强化学习中所举的例子(如上图)时,相信很多书友对这个例子中的16、18、25、50这些数字是哪里来的很迷茫,所以这篇文章会对这个例子展开说说,因为这部分的解释有些饶人,所以我也只能尽我所能去用文字阐述清楚,如果有误还请见谅,本人虚心接受来自各位“看官”的批评指正。为了帮助大家更好的理解这个例子,根据《西瓜书》中的原数据集以及对西瓜数据的定义,我将“新规则”所涉及的“因此,由上图,我们可以知道在“新规则体”中,正例数=16,反例数=2,正例数+反例数=18。

2024-05-22 08:00:00 570

原创 python包的相对导入的一些个人看法

同理,test2.py文件中的具体代码上面已经给出,从中不难发现,test2.py文件中含有相对导入,那么如果此时在编辑器中对test2.py点击“运行”,必然会报错,因为此时test2.py是入口文件。最近在学python,看到了包的导入部分,绝对导入还好,相对导入搞得人脑袋发晕看不明白,所以费了一番功夫去查资料,然后在这里分享一些个人心得,如果有误还请见谅,本人虚心接受来自各位“看官”的批评指正。"."表示当前目录,“..”表示上级目录,“...”表示上上级目录。入口文件中不能使用相对导入!

2024-05-21 09:24:33 736

原创 《西瓜书》12章——Rademacher复杂度一些问题的个人看法

—这个符号表示上确界,如果有小伙伴实在不理解可以把它近似的理解成max,但是两者的区别,本人也要说明一下:比如函数f(x)的值域是[0,1),那么他的上确界是1,最大值是无的,即sup[f(x)]=1,max[f(x)]=None;比如假设空间H中有五个假设h1、h2、h3、h4、h5,因为xi是已知的,σi是随机变量,也可当作已知,对于不同的h我们就会输出一个不同的且确定的值f,假设输出分别是f1、f2、f3、f4、f5,且f3最大,所以下式的结果就是f3(注意:此时f3已经是一个具体的值了)

2024-05-18 14:19:50 832

原创 《西瓜书》——正则化防止过拟合的一些个人看法

当然,如果我上面给出的解释仍有小伙伴不能接受,不防从导数的方向去思考,多项式求导,系数大小直接决定所求导数绝对值的大小,导数绝对值越大,原函数变化速率越快,相应的变化的幅度也就越大,曲线可能就会更波动,过拟合的风险相应的也就会增大。最近在参照着《西瓜书》在学机器学习,里面写到引入“正则化”项可以有效防止过拟合,对此,本人看的一愣一愣的,所以查阅了一些资料,并掺入了一些个人理解,如个人理解有误请见谅,欢迎探讨,话不多说,进入正文。这部分有些懒得解释,懒得写了,所以引用一下别人的,个人觉得写的蛮好的。

2024-05-17 15:34:42 968

原创 《西瓜书》16章强化学习——时序差分学习的一些个人看法

西瓜书》上对时序差分学习的描述搞得人很晕,而且公式推导让人看不明白,《南瓜书》也没写详细的推导过程,让人感觉逻辑不是很严谨,所以自己查了一些资料,并针对时序差分学习分享一些自己的心得,如个人理解有误请见谅,欢迎探讨,话不多说,进入正文。步的价值函数,并以此为依据不断迭代,从而求得一个稳定的价值函数,然后根据稳定的价值函数来获取最佳策略。,根据样本算出来的价值函数就是最终稳定的价值函数。亿次,全部采样生成的样本或者轨迹都是。步的价值函数,还是逼近采样所得样本。上述公式的意思就是说,的价值函数,采样到的。

2024-05-14 08:56:34 314

机器学习python实践A股数据集

在跟着《深入浅出python机器学习》这本书实践时,书本10.3节、12.2节以及12.3节出现了A股数据集,书本没有提供相关的数据集,很多小伙伴可能会因为找不到数据集而苦恼,因为不知道书本作者下的是哪一天的数据,所以我下载了2024.06.24的A股数据,大家有需要的自行获取,数据集可能跟原文中的有所不同,但是不影响大家参照书本进行实践

2024-06-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除