Task01:线性回归;Softmax与分类模型、多层感知机

Task01:线性回归;Softmax与分类模型、多层感知机

序:报名了一个线上学习,要求打卡笔记,正好就在这里记录一下。

线性回归

线性回归就作为基础入门,主要是为了引入全连接模型,就算是和神经网络勾搭上了。模型就是WX+b,损失函数就是L2范数,最优化就是梯度下降。可能因为时间原因,并没有展开讲最优化方法的其他方法和实现(群里有大神解释了反向传播的实现方法–拓扑排序,好像学过,但造就忘了,有机会可看看)。
习题理由有一个说tanh函数和sigmoid函数是平移放缩的关系,想了想还真是!以前都没发现…

softmax与分类模型,多层感知机

softmax就是推广的sigmoid,很好的解释了分类问题中L2不合适而交叉熵更合适的地方。但想想其实分类问题中的one-hot编码也很不合适,如果能和词向量似的也搞个嵌入可能更合理?

嗯… 能记起来的就这些了吧… 就这样吧…

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值