PyTorch

本文介绍了PyTorch在机器学习中的应用,从线性回归和逻辑回归的基础出发,探讨了分类问题。进一步讨论了非线性函数如ReLU及其在模型中的作用。此外,详细讲解了PyTorch中数据处理的方法,如one-hot编码和embedding,以及数据类型的表示。文章还涵盖了张量的创建、操作和数学运算,如广播机制、拼接与拆分,以及各种数学函数的使用。最后,提到了条件判断和索引操作在PyTorch中的实现。
摘要由CSDN通过智能技术生成

1、Linear Regression要预测的值是连续的,时序空间的。

Logistics Regression就在Linear Regression上加激活函数(Sigmoid),或者说是压缩函数,把取值空间压缩至[0,1]的范围,预测值在0~1之间的时序空间的问题,不是很连续的取值范围,二分问题。

Classification比如说有10个点,所有点的概率加起来等于1,多分问题。取概率最大的点作为预测值。

2、非线性函数

 3个Relu模型,增加了非线性的表达能力,通常最后一层的激活函数不会用Relu,会根据具体任务选择用sigmoid和softmax等。

x=0的概率是0.1,x=1的概率是0.8,最大值是0.8,argmax=1,1就是label值 ,label=1也作为预测值。

3、PyTorch无法处理string,要采用编码形式处理

解决办法:one-hot和Embedding(Word2vec/glove)

4、数据类型

 

 0维的,标量                         

一维的,都称为向量或张量,.tensor([1.1,1.2])直接输出相应数值,也可给定.FloatTensor(2),表示随机一维的,长度为2的数值。

二维的,tensor小写给定数值,Tensor(d1,d2)大写给定维度。大写也可给定数值,但尽量不用,避免与tensor小写弄混。

三维的,[10,20,100]10个单词,20个句子&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值