图解机器学习第三部分第十章——使用概率梯度下降法的Logistic回归学习

n = 90;
c = 3;
y=ones(n/c,1)*[1:c];
y=y(:); % 将它变为 90 × 1 的矩阵
x=randn(n/c,c)+repmat(linspace(-3,3,c),n/c,1); % -3 0 3 的正态分布
x = x(:);  % 将它变为 90 × 1 的矩阵

%概率梯度下降法
hh = 2*1^2; %带宽为 1
t0 = randn(n,c); % 随机化参数 给参数一个适当的值
for o=1:n*1000
    i=ceil(rand*n);%
    yi=y(i);
    ki=exp(-(x-x(i)).^2/hh);
    ci=exp(ki'*t0);
    t = t0-0.1*(ki*ci)/(1+sum(ci)); % 计算梯度
    t(:,yi)=t(:,yi)+0.1*ki; %跟新参数
    if norm(t-t0)<0.00001,break,end
    t0=t;
end

N=100;
X=linspace(-5,5,N)';
K=exp(-(repmat(X.^2,1,n)+repmat(x.^2',N,1)-2*X*x')/hh);
figure(1);
clf;
hold on;
axis([-5 5 -0.3 1.8]);
C=exp(K*t); % ?
C=C./repmat(sum(C,2),1,c);% ?
plot(X,C(:,1),'b-');
plot(X,C(:,2),'r--');
plot(X,C(:,3),'g:');
plot(x(y==1),-0.1*ones(n/c,1),'bo');
plot(x(y==2),-0.2*ones(n/c,1),'rx');
plot(x(y==3),-0.1*ones(n/c,1),'gv');
legend('q(y=1|x)','q(y=2|x)','q(y=3|x)')

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
logistic回归中,梯度下降法是一种常用的优化算法,用于最小化损失函数。梯度下降法的目标是通过迭代更新模型参数,使得损失函数达到最小值。 具体来说,在二项逻辑斯蒂回归中,损失函数通常使用对数似然损失函数。对于每个样本,损失函数的计算可以通过求解负对数似然函数得到。然后,通过计算损失函数对模型参数的偏导数,即梯度,来更新模型参数。 在梯度下降法中,每次迭代都会根据当前参数的梯度方向来更新参数。具体的更新规则可以使用学习率来控制每次迭代的步长。通过不断迭代更新参数,最终可以找到损失函数的最小值,从而得到最优的模型参数。 需要注意的是,在logistic回归中,梯度下降法可以使用批量梯度下降、随机梯度下降或者小批量梯度下降等不同的变种。每种变种都有其优缺点,选择合适的梯度下降法取决于具体的问题和数据集。 总结起来,logistic回归中的梯度下降法是一种通过迭代更新模型参数来最小化损失函数的优化算法。它是一种常用且有效的方法,用于训练logistic回归模型。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [逻辑斯蒂回归以及它的梯度下降法](https://blog.csdn.net/Alter__/article/details/109449043)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [[飞桨机器学习]逻辑回归(六种梯度下降方式)](https://blog.csdn.net/chenqianhe2/article/details/115009758)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值