python
文章平均质量分 60
冲上云霄!
心怀代码梦~
展开
-
python2到python3代码错误汇总
1. 算术运算报错 can’t multiply sequence by non-int of type ‘float’原因:用了float数据进行数乘,需要用iny型数据根本原因:python2中 A/B 返回int型数据,而python3中 A/B 返回float型数据解决方案:把 A/B 改为 A//B 即可2. IndexError: invalid index of a 0-dim tensor. Use tensor.item() in Python or tensor.item<原创 2022-02-17 17:01:21 · 1246 阅读 · 0 评论 -
sklearn.model_selection.train_test_split
sklearn.model_selection.train_test_split函数功能:对数据和标签,按照指定比例,随机分出训练集和测试集示例:返回值:样本训练集,样本测试集,标签训练集,标签测试集# x_data: 所有样本数据# y_data: 所有label数据x_train, x_test, y_train, y_test = train_test_split(x_data, y_data, test_size=0.25, random_state=1)# test_size:值原创 2021-08-31 13:34:07 · 868 阅读 · 0 评论 -
python数据处理包——pandas
目录pandas.DataFrame新建dataframedaraframe常用域pandas读取保存文件保存文件读取文件pandas.concatpandas.mergepandas将dataframe的多列合并为一列pandas是python中强大的数据处理包,能够进行各式各样的数据处理工作。pandas.DataFramepandas对数据的封装格式。新建dataframe示例:import pandas as pda=[['1','2','3'], ['a','b','c']]#原创 2021-08-25 15:56:37 · 1542 阅读 · 3 评论 -
pytorch学习笔记——手动实现loss函数
这里写目录标题1. 手动实现BCELoss损失函数2.手动实现CrossEntropyLoss损失函数1. 手动实现BCELoss损失函数BCELoss损失函数,又称 “二元交叉熵损失函数(binary cross entropy loss)”计算公式:loss(x,class)=−logp(xclass).(class为x的真实类别标签)loss(x,class) = -{log {p(x_{class})}}. (class为x的真实类别标签)loss(x,class)=−logp(xcla原创 2021-08-15 15:41:26 · 3378 阅读 · 0 评论 -
pytorch学习笔记——torchvision.transforms使用
torchvision.transforms使用transforms.ToTensor()transforms.Noumalize(mean, std)transforms.Resize(size)transforms.Compose(transforms)transforms.ToTensor()函数功能:1. 把shape = (H x W x C) 数据转化为shape = (C x H x W) 形式;2. 把像素范围为 [0,255] 数据转化为 [0.0,1.0] 范围数据;3. 把类原创 2021-08-12 11:41:33 · 476 阅读 · 1 评论 -
pytorch学习笔记-各种Dataset的使用
TensorDataset 可以用来对 tensor 进行打包,就好像 python 中的 zip 功能。通常用于打包数据 和 标签。该类通过每一个 tensor 的第一个维度进行索引。因此,该类中的 tensor 第一维度必须相等。TensorDataset 打包之后,可再送入dataloader中,最后得到迭代的batch_size对象。参考:PyTorch 小功能之 TensorDataset...原创 2021-07-15 11:48:47 · 3297 阅读 · 0 评论 -
pytorch学习笔记-torch.nn与torch.nn.functional的区别及应用场景
转载出处:作者:有糖吃可好链接:https://www.zhihu.com/question/66782101/answer/579393790来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。两者的相同之处:nn.Xxx和nn.functional.xxx的实际功能是相同的,即nn.Conv2d和nn.functional.conv2d 都是进行卷积,nn.Dropout 和nn.functional.dropout都是进行dropout;运行效率也是近乎相同。转载 2021-04-14 16:55:24 · 665 阅读 · 0 评论 -
scipy.stats统计库函数
常见通用函数pdf:概率密度函数cdf:累积分布函数,已知x位置求累计概率ppf:分位点函数,已知累计概率求x位置(cdf的逆函数)norm:正态分布poisson:泊松分布uniform:均匀分布t:T分布求平均值的标准误差(SEM)import scipy as spimport scipy.statsimport numpy as nparr=[1,2,3,4,5]sem=scipy.stats.sem(arr)SEM详解见:SEM实例:求置信区间临界点先验知原创 2021-04-13 20:14:41 · 2489 阅读 · 0 评论 -
平均值的标准误差(SEM)
定义数学公式定义:σ\sigmaσ:样本标准差nnn:样本数量σ′=σn\sigma'=\frac{\sigma}{\sqrt{n}}σ′=nσpython公式定义:# 样本的(无偏估计)标准差/sqrt(样本数量)sem = np.std(arr,ddof=1) / np.sqrt(len(arr))区别标准误差(SD)与平均值标准误差(SEM)之间主要区别在于:SD量化了分散值之间的差值有多大;SEM量化了你对总体实际平均值的了解程度。其考虑了SD的值和样本量;原创 2021-04-13 17:27:39 · 16010 阅读 · 0 评论 -
pytorch学习笔记-网络训练中,model.train() model.eval()的使用
网络训练中,model.train() model.eval()的使用1. model.train()启用 Batch Normalization 和 Dropout。如果模型中有BN层(Batch Normalization)和Dropout,需要在训练时添加model.train()。model.train()作用:对BN层,保证BN层能够用到每一批数据的均值和方差,并进行计算更新;对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。2. model.eval(原创 2021-04-04 17:31:56 · 4981 阅读 · 2 评论 -
pytorch学习笔记-loss函数
1. 交叉熵(torch.nn.CrossEntropyLoss)参数class CrossEntropyLoss(_WeightedLoss): def __init__(self, weight=None, size_average=True, ignore_index=-100, reduce=True): pass def forward(self, input, target): pass两个参数:input:形状:NxC,其中C为类别数量;target:形原创 2021-03-26 21:17:36 · 574 阅读 · 1 评论 -
pytorch 搭建网络步骤
pytorch 搭建网络步骤准备数据定义网络结构model定义损失函数定义优化算法 optimizer(有是还要定义更新学习率:scheduler=StepLR() )训练 5.1 准备好tensor形式的输入数据和标签(可选) 5.2 前向传播计算网络输出output 和 计算损失函数loss 5.3 反向传播更新参数 以下三句话一句也不能少: 5.3.1 optimizer.zero_grad() 将上次迭代计算的梯度值清0 5.3.2 loss.ba原创 2021-03-16 16:12:32 · 1425 阅读 · 2 评论 -
python 学习笔记
python 学习笔记(update中)1. argparse使用方式import argparse# 设置说明parser = argparse.ArgumentParser(description='Train networks')# 添加参数parser.add_argument('--train.epochs', type=int, default=100, metavar='NEPOCHS', help='number of epochs to train (default: 100原创 2021-03-09 13:32:22 · 309 阅读 · 0 评论