自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 【Numpy】常用操作

numpy数组的拼接(扩维拼接和非扩维拼接)_木盏-CSDN博客_numpy 拼接维度import numpy as npls = []a = np.array([[1, 1],[1, 1]])b = np.array([[2, 2],[2, 2]])ls.append(a)ls.append(b)c = np.array(ls)print(c)print(c.shape)...

2021-10-18 11:37:37 171

原创 【Sklearn】

fit_transform,fit,transform区别和作用详解​​​​​​fit_transform,fit,transform区别和作用详解!!!!!!_欢迎光临啊噗不是阿婆主的酒馆-CSDN博客_fit_transformSklearn之数据预处理——StandardScalerSklearn之数据预处理——StandardScaler_小白一直白-CSDN博客_standardscaler...

2021-10-17 16:43:06 167

原创 关于sklearn的roc_auc_score

占坑记录:跑模型出分数的时候被这个方法差点坑了,怪自己理解不够到位,占坑记录一下。最早发现这个问题是发觉输入roc_auc_score(xtest,prediction)输出的auc与plot_auc的值相差甚远,查资料之后发现关键在于第二个参数应该输入模型的输出概率值而非预测值,这里是个小坑 ,因为其他如acc pre f1score都是输入真实与预测值,当模型输出概率时,应该输入Prob。...

2021-10-17 11:22:28 1056 2

原创 【机器翻译】调优和测评

学习率优化方法warmup参考:【调优方法】——warmup_黑白象-CSDN博客翻译测评参考:机器翻译评测——BLEU算法详解 (新增 在线计算BLEU分值) - 胖喵~ - 博客园

2021-09-27 09:18:10 140

原创 【pytorch】pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization

提前挖坑:t​​​​​​​​​​​​t​​​​​pytorch系列 -- 9 pytorch nn.init 中实现的初始化函数 uniform, normal, const, Xavier, He initialization_墨流觞的博客-CSDN博客

2021-09-24 19:38:41 409

原创 【机器学习】总结复习,问题集锦

### 线性回归任参考:线性回归任务一 - 知乎· 说明为什么用L1-Norm代替L0-NormL0范数的优化求解是NP难的问题,而L1是范数是L0范数的最优凸近似且L1范数有特定的求解方法。· 学习为什么只对w/Θ做限制,不对b做限制因为做限制的原因是防止模型对当前的训练数据过拟合进而失去泛化能力,而过拟合的表现就是模型为了符合当前数据的分布情况趋向于变得复杂以获得更低的loss。而模型的复杂程度是由w/θ决定的,b只是起到平移模型的作用。缩小b不能使模型简化,只能使模型分界面

2021-09-23 16:13:38 91

原创 【math】希腊字符及数字

罗马字符及数字小写 大写 中文 英文α Α 阿尔法 aerfarβ Β 卑塔 beitaγ Γ 嘎吗 gamaδ Δ 德儿塔 derltaε Ε 依普西龙 ipuseilongζ Ζ zei塔 zeitaη Η 衣塔 itaθ Θ si塔 sitalι Ι...

2021-09-23 15:43:15 9418 1

原创 【Pytorch】DataLoader和collate_fn

### DataLoaderPyTorch DataLoader工作原理可视化###collate_fnpytorch中collate_fn函数的使用&如何向collate_fn函数传参_dong_liuqi的博客-CSDN博客

2021-09-15 10:56:34 139

原创 【音频处理】

wav读写:wave — Read and write WAV files — Python 3.9.7 documentationwav文件解析:wav音频文件格式解析【个人笔记】(自用) - douzujun - 博客园

2021-09-13 14:34:49 59

原创 【Pytorch问题及解决】

解决办法:packed = pack_padded_sequence(embed_src, src_length, batch_first=True)改为packed = pack_padded_sequence(embed_src, src_length.cup(), batch_first=True)参考https://github.com/joeynmt/joeynmt/pull/119/commits/ef1b0f081fedfcf83ce39cd2f27dcc33d3cbb2d1..

2021-09-09 21:46:34 1158

原创 【python】常用函数

zip()zip在英文中有拉链的意思,我们由此可以形象的理解它的作用:将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。如果各个迭代器的元素个数不一致,则返回列表长度与最短的对象相同。语法:zip([iterable, ...])示例:>>> a = [1,2,3]>>> b = [4,5,6]>>> c = [4,5,6,7,8]>>> zipped = zip(a,

2021-09-06 17:04:51 909

转载 【Time series】时间序列

代码中需要用到的包# Importing librariesimport osimport warningswarnings.filterwarnings('ignore')import numpy as np import pandas as pdimport matplotlib.pyplot as pltplt.style.use('fivethirtyeight') # Above is a special style template for matplotlib, high

2021-09-02 17:08:01 451

转载 【Pytorch】nn.LSTM的理解

Pytorch中的nn.LSTMPytorch中LSTM总共有7个参数,前面3个是必须输入的input_size – The number of expected features in the input xhidden_size – The number of features in the hidden state hnum_layers – Number of recurrent layers. E.g., setting num_layers=2 would mean stackin

2021-08-25 16:38:05 18739 3

原创 【math】|| ||范数

|| ||, 这个数学符号是范数。一、范数,是具有“长度”概念的函数。在线性代数、泛函分析及相关的数学领域,范数是一个函数,是矢量空间内的所有矢量赋予非零的正长度或大小。半范数可以为非零的矢量赋予零长度。定义范数的矢量空间是赋范矢量空间;同样,定义半范数的矢量空间就是赋半范矢量空间。注:在二维的欧氏几何空间 R中定义欧氏范数,在该矢量空间中,元素被画成一个从原点出发的带有箭头的有向线段,每一个矢量的有向线段的长度即为该矢量的欧氏范数。二、如果线性空间上定义了范数,则称之为赋范线性空间。1

2021-08-20 16:54:00 2541

转载 【深度学习】(三)神经网络与反向传播算法

神经元神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示:计算一个神经元的输出的方法和计算一个感知器的输出是一样的。假设神经元的输入是向量,权重向量是(偏置项是 ),激活函数是sigmoid函数,则其输出:sigmoid函数的定义如下:将其带入前面的式子,得到sigmoid函数是一个非线性函数,值域是(0,1)。函数图像如下图所示sigmoid函数的导数..

2021-08-18 12:02:47 1769

转载 【深度学习】(二)线性单元和梯度下降

转载自:https://www.zybuluo.com/hanbingtao/note/448086线性单元是啥感知器有一个问题,当面对的数据集不是线性可分的时候,『感知器规则』可能无法收敛,这意味着我们永远也无法完成一个感知器的训练。为了解决这个问题,我们使用一个可导的线性函数来替代感知器的阶跃函数,这种感知器就叫做线性单元。线性单元在面对线性不可分的数据集时,会收敛到一个最佳的近似上。为了简单起见,我们可以设置线性单元的激活函数为这样的线性单元如下图所示对比此前我们讲过的感知

2021-08-17 11:05:44 214

转载 【深度学习】(一)感知机

深度学习是啥在人工智能领域,有一个方法叫机器学习。在机器学习这个方法里,有一类算法叫神经网络。神经网络如下图所示:上图中每个圆圈都是一个神经元,每条线表示神经元之间的连接。我们可以看到,上面的神经元被分成了多层,层与层之间的神经元有连接,而层内之间的神经元没有连接。最左边的层叫做输入层,这层负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层。隐藏层比较多(大于2)的神经网络叫做深度神经网络。而深度学习,就是使用深层架构(比如,深度神经网

2021-08-16 18:20:13 878

转载 【math】RMSE、MAE和SD的基本概念

RMSE:均方根误差(Root-mean-squareerror),观测值与真值偏差的平方和与观测次数m比值的平方根。假如有2000次观测,即m=2000,对于某一次(第i次)观测来说,y值是真实值,而h(x)是观测值,对所有m次观测的的偏差取平方后相加,得到的值再除以m,然后再开根号,就得到RMSE了。MAE,平均绝对误差(MeanAbsoluteError),观测值与真实值的误差绝对值的平均值。上面的两个指标是用来描述预测值与真实值的误差情况。它们之间在的区别在于,RMSE先...

2021-08-16 17:27:54 881

原创 【每日bug】for i, data in enumerate(trainloader, 0)

pytorch bug: for step,data in enumerate(loader)+Connection reset by peer单GPU跑的程序,而且是在docker中,迭代了几百步后,程序突然崩掉了,程序停在了 for step,data in enumerate(loader),下面是部分bug信息Traceback (most recent call last):........ File ".../torch/utils/data/dataloader.py",

2021-06-06 18:08:11 3954 1

原创 日常碎碎记

1torchvision2 pickle3

2021-06-04 15:03:29 92

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除