碎碎念
XiaoE爱食橙
记录点东西方便查看,积累
展开
-
【Sklearn】
fit_transform,fit,transform区别和作用详解fit_transform,fit,transform区别和作用详解!!!!!!_欢迎光临啊噗不是阿婆主的酒馆-CSDN博客_fit_transformSklearn之数据预处理——StandardScalerSklearn之数据预处理——StandardScaler_小白一直白-CSDN博客_standardscaler...原创 2021-10-17 16:43:06 · 177 阅读 · 0 评论 -
关于sklearn的roc_auc_score
占坑记录:跑模型出分数的时候被这个方法差点坑了,怪自己理解不够到位,占坑记录一下。最早发现这个问题是发觉输入roc_auc_score(xtest,prediction)输出的auc与plot_auc的值相差甚远,查资料之后发现关键在于第二个参数应该输入模型的输出概率值而非预测值,这里是个小坑 ,因为其他如acc pre f1score都是输入真实与预测值,当模型输出概率时,应该输入Prob。...原创 2021-10-17 11:22:28 · 1070 阅读 · 2 评论 -
【机器学习】总结复习,问题集锦
### 线性回归任参考:线性回归任务一 - 知乎· 说明为什么用L1-Norm代替L0-NormL0范数的优化求解是NP难的问题,而L1是范数是L0范数的最优凸近似且L1范数有特定的求解方法。· 学习为什么只对w/Θ做限制,不对b做限制因为做限制的原因是防止模型对当前的训练数据过拟合进而失去泛化能力,而过拟合的表现就是模型为了符合当前数据的分布情况趋向于变得复杂以获得更低的loss。而模型的复杂程度是由w/θ决定的,b只是起到平移模型的作用。缩小b不能使模型简化,只能使模型分界面原创 2021-09-23 16:13:38 · 105 阅读 · 0 评论 -
【math】希腊字符及数字
罗马字符及数字小写 大写 中文 英文α Α 阿尔法 aerfarβ Β 卑塔 beitaγ Γ 嘎吗 gamaδ Δ 德儿塔 derltaε Ε 依普西龙 ipuseilongζ Ζ zei塔 zeitaη Η 衣塔 itaθ Θ si塔 sitalι Ι...原创 2021-09-23 15:43:15 · 10225 阅读 · 1 评论 -
【Pytorch问题及解决】
解决办法:packed = pack_padded_sequence(embed_src, src_length, batch_first=True)改为packed = pack_padded_sequence(embed_src, src_length.cup(), batch_first=True)参考https://github.com/joeynmt/joeynmt/pull/119/commits/ef1b0f081fedfcf83ce39cd2f27dcc33d3cbb2d1..原创 2021-09-09 21:46:34 · 1251 阅读 · 0 评论 -
【每日bug】for i, data in enumerate(trainloader, 0)
pytorch bug: for step,data in enumerate(loader)+Connection reset by peer单GPU跑的程序,而且是在docker中,迭代了几百步后,程序突然崩掉了,程序停在了 for step,data in enumerate(loader),下面是部分bug信息Traceback (most recent call last):........ File ".../torch/utils/data/dataloader.py",原创 2021-06-06 18:08:11 · 3986 阅读 · 1 评论 -
日常碎碎记
1torchvision2 pickle3原创 2021-06-04 15:03:29 · 104 阅读 · 0 评论