自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 flask restfulplus 接口标题不显示问题解决

文章目录问题表现解决方法问题原因问题表现如下图经过排查,发现所有无法显示标题的接口在代码中都是加入了自定义的token校验装饰器permission_check: @ns.expect(base_parser) @permission_check("user_delete") @ns.marshal_with(base_return_model) def delete(self, user_id): """ 用户删除接口

2020-11-10 10:33:36 441

原创 逻辑回归(logistics regression)

目录:1、逻辑回归是什么2、逻辑回归的预测函数3、决策边界4、损失函数5、损失函数的简化与梯度下降6、多元分类下的逻辑回归算法1.逻辑回归是什么回顾之前的线性回归,可以发现线性回归对于连续值的预测效果不错,但是对于离散值而言,线性回归很难预测,例如,判断一个肿瘤是否是良性的,结果只有 YES/NO 两种答案,用数字表示为0和1,逻辑回归就是为了处理分类问题而诞生的。2.逻辑回归的...

2020-03-17 00:03:45 954

原创 正规方程(Normal Equation)

在线性回归的梯度下降法当中,求损失函数J(θ)中θ的最优解是根据损失函数的斜率(梯度)来判断J(θ)是否收敛,需要多次迭代。在某些情况中可以使用正规方程直接求θ的最优解。正规方程的优缺点:优点:1.不需要指定学习速率α2.不需要进行多次迭代缺点:1.由于正规方程需要求解(XTX)-1,所以当n很大(n>10000)时进行计算的速度会很慢。2.正规方程只适用于线性方程求解,适用...

2020-03-06 23:02:57 2186

原创 学习速率(Learning Rate)

学习速率的选择非常重要, 如果学习速率太低,代价函数会收敛的非常慢,但是如果学习速率太高,代价函数可能不会在每个变量处都下降,导致根本无法收敛。代价函数J(θ)和迭代步数的关系如图:...

2020-03-05 23:26:56 1172

原创 梯度下降法之特征缩放(Feature Scaling)

1.为什么要进行特征缩放?特征缩放的目的是为了让代价函数J(θ)尽快收敛,如果各特征的取值范围相差很大,代价函数的轮廓图会是一个个瘦长的椭圆形,如下图所示:这样造成的结果很可能就是,代价函数在梯度下降的过程中来回震荡,收敛速度很慢,所以需要进行特征缩放。2.特征缩放的意义?各特征之间的大小范围一致,才能使用距离度量等算法加速梯度下降算法的收敛在SVM算法中,一致化的特征能加速寻找支...

2020-03-05 23:20:58 985

原创 多元线性回归(Multivariate Linear Regression)及多元线性回归的梯度下降

在之前的文章中,假设只有一个变量x,预测函数hθ(x) =θ0+θ1x。现在假设有多个变量,预测函数为hθ(x) =θ0+θ1x1+θ2x2+θ3x3+…+θnxn假设有x0=1,上面的预测函数可改写为如下形式:hθ(x) =θ0x0+θ1x1+θ2x2+θ3x3+…+θnxn=θTx备注:...

2020-03-05 23:00:12 256

原创 梯度下降法(gradient descent)

假设代价函数如图:在上图中,代价函数的最低点就是预测函数h(x)的最优解,假设随便定义一个红圈里的点为θ0和θ1的初始值,想象我们正在山顶,环视四周后找到一个可以尽快下山的方向,我们沿着这个方向跨出一步,然后再环视四周,找到一个尽快下山的方向跨出一步,一直循环直到到达最低点,这种方法被称作梯度下降法。梯度下降法的函数可以写作α又被称作学习速率(learn rate),这个参数决定梯度下降...

2020-03-03 21:30:15 210

原创 代价函数(cost function)

假设有这样一份关于房价的数据:房屋面积价格2448510那么我们为了预测房屋价格,假设预测函数为h(x)=θ0*x + θ1,为了尽可能少的考虑变量,先假设 θ1=0,所以得到预测函数为h(x)=θ0*x当θ0取1,2,3时,预测函数的图像为红标为训练数据的点,损失函数就是这些点到预测函数的距离,距离越大,误差越大,可以看到,当θ0=2时,所...

2020-03-01 23:00:52 900

原创 Octave安装

Octave是可以基本代替matlab的数值计算工具,安装Octave出现错误退出360之后安装就好了。方法参考了如下文章:https://blog.csdn.net/weixin_40212554/article/details/83780380感谢博主@亨利先生...

2020-02-29 20:39:06 148

原创 什么是无监督学习(Unsupervised Learning)

与监督学习相反,无监督学习的数据是没有标签的,我们把数据给机器,并让它试着从这些数据中找到某种结构。无监督学习使我们能够在不知道结果应该是什么的情况下处理问题。我们可以从不一定知道变量影响的数据中导出结构。我们可以根据数据中变量之间的关系对数据进行聚类,从而得出这种结构,在无监督学习中,没有基于预测结果的反馈。例子:聚类:收集1000000条不同的新闻内容,找到一种方法自动对这些新闻进行分...

2020-02-29 14:23:28 700

原创 什么是监督学习(Supervised Learning)

监督学习就是计算机从已经有标签的数据中进行训练,对新的无标签的数据进行预测或分类。监督学习中的数据特征可能会有很多,在此仅举几个简单的例子:1.假定广告费的投入量和产品的销售量呈线性关系,即广告费越多,产品销售量越多,那么监督学习就是从以往的广告费投入和产品销售量进行学习,从而可以由一个给定的广告费金额预测出产品销售量。(回归问题)2.肿瘤预测,从以往的肿瘤大小和该肿瘤是否是良性的诊断中进行...

2020-02-29 14:10:17 3177

翻译 什么是机器学习(Machine Learning)?

卡内基梅隆大学的Tom Mitchell定义的机器学习是这么说的, 一个程序被认为能从经验E中学习,解决任务 T,达到性能度量值P,当且仅当,有了经验E后,经过P评判, 程序在处理 T 时的性能有所提升。举例来说,一个区分邮件是否是垃圾邮件的程序,T就是区分邮件是否是垃圾邮件(Task),E就是对人已经分好标签的邮件进行学习(Experience),P就是对一个没有标签的邮件进行区分的正确率...

2020-02-29 13:55:16 511

原创 Python函数中下划线的作用

函数前单下划线_XXX:此类函数只有类和子类能够访问调用,无法通过Import引入函数前双下划线__XXX:此类函数只有类对象本身能够访问函数前后双下划线此类函数为系统定义函数名,命名函数时尽量避免此类命名方式...

2019-05-23 15:03:51 4756 1

原创 docker的基本用法

docker的基本用法当docker镜像已存在时要查询所有已存在的docker镜像在docker容器中执行命令当docker镜像已存在时docker start + CONTAINER ID要查询所有已存在的docker镜像docker ps -a在docker容器中执行命令docker exec -ti...

2019-05-22 16:07:21 198

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除