学习笔记2 Supervised Learning and Optimization 之 Softmax Regression

一、Softmax Regression 基础

Softmax Regression 相当于 Logistic Regression 的升级版,泛化版。将二分类问题提升为多分类问题。

概率表示为
这里写图片描述

代价函数为
这里写图片描述

其中里面那一项为概率
这里写图片描述

梯度为
这里写图片描述

这里这里写图片描述表示的是一个向量。

为了去除参数的冗余性,一般的,我们将最后一个 θ 置为0向量.

二、代码部分

除了利用bsxfun外,还有一些技巧。

1.sub2ind()

I=sub2ind(size(A), 1:size(A,1), y);
values = A(I);

如果y为行向量,且表示每一行中要提取的元素的列坐标,则 I 能够提取到A中每 i 行中的第y(i)个元素。values 则能提取到相应的值,values 为行向量。

2.sparse和full
利用sparse和full有助于我们建立关于这里写图片描述的矩阵。
利用sparse可以建立稀疏矩阵,并以 sparse 类型记录数据,包括坐标和值.
再利用full可以建立完全矩阵。
以下为例子,其中y为各个点的行坐标,1:3表示列坐标,1则为对应点的值。

>> y=[2,3,1]

y =

     2     3     1

>> sparse(y,1:3,1)

ans =

   (2,1)        1
   (3,2)        1
   (1,3)        1

>> full(sparse(y,1:3,1))

ans =

     0     0     1
     1     0     0
     0     1     0
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值