深度学习与机器学习
赛马丸子
这个作者很懒,什么都没留下…
展开
-
Pytorch实现基于Hyperopt的TPE自动超参数调参
TPE自动调参原创 2023-03-25 21:34:14 · 615 阅读 · 0 评论 -
Pytorch里DNN添加batch normalization层;RuntimeError: running_mean should contain 1 elements not 300
Pytorch使用相关原创 2023-03-09 20:56:13 · 426 阅读 · 0 评论 -
batch size 代码
假设已经有了一组(x1,x2)的训练数据,格式为numpy 数组;此处框架为PyTorchdataset=TensorDataset(torch.Tensor(x))dataloader=DataLoader(dataset, batch_size=50,shuffle=True,num_workers=0, drop_last=True)#。。。epochs=500for epoch in range(epochs): for batch_idx, x in enumerate (data.原创 2022-02-12 22:09:34 · 2213 阅读 · 0 评论 -
Pytorch Swish()激活函数
import torchimport torch.nn as nnimport torch.optim as optimclass Net(nn.Module): def __init__(self): super(Net,self).__init__() self.main=nn.Sequential( nn.Linear(2,20), Swish(), nn.Linear(20,20), Swish(), nn.Linear(20,1) ) def f原创 2022-01-11 15:12:55 · 5908 阅读 · 0 评论 -
已安装Anaconda和Pytorch,从命令行进入Python环境
conda activatepython import torch import numpy as np 。。。原创 2021-11-30 09:27:55 · 1611 阅读 · 0 评论 -
tensorflow_gpu-1.10.0配置
下载anaconda版本不限,安装结束后可以通过“开始”菜单,找到anaconda prompt进入后输入conda -V,输出conda版本号则表示安装成功查看自己电脑的英伟达显卡可以支持的cuda最大版本号。如何查看自己显卡的版本号以及找到对应的cuda,可以查 https://blog.csdn.net/GENGXINGGUANG/article/details/106619858;根据可用的cuda版本选择tensorflow版本,我选择的tensorflow 1.10.0,对应的cuda9..原创 2021-01-14 19:23:37 · 2539 阅读 · 4 评论 -
Pytorch多分类问题学习09笔记
一、09-多分类问题1. 基本概念整理1.1 ReLU函数:线性整流函数(Rectified Linear Unit),又称为修正线性单元,通常指以斜坡函数及其变种为代表的非线性函数。1.2 softmax函数: 多分类问题需要一个特定的激活函数,可以满足两个条件* $p_i \geq1$* $\sum p_i=1$* softmax函数定义式:$P(y=i)=\frac{e^{z_i}}{\sum_{j=0}^{K-1}e^{z_i}}$1.3 NLL Loss函数,多分类问题原创 2020-12-23 15:07:26 · 449 阅读 · 0 评论 -
PyTorch入门: Kaggle 泰坦尼克幸存者预测
我这个的损失最后是500多,正确率百分之62,总的来说不值得借鉴,这是我入门pytorch后写的第一个象征性的分类器,后面更深入学习后再来优化。我的这个倒是还是能走完全流程的,对于只想试试水,学个流程的可以参考。我参考的博主链接上代码:总的来说可以分为,数据准备,数据读入与处理,构建模型,构建损失函数与优化器,训练MAP_Embarkded={'C':0,'Q':1,'S':2}MAP_Sex={"male":1,"female":0}# OLD_INDEX=['Pclass','Sex'.'.原创 2020-11-23 18:48:07 · 552 阅读 · 0 评论 -
pytorch学习--06
## Pytorch-06二分类问题代码import numpy as npimport torch.nn.functional as Fimport torchimport matplotlib.pyplot as plt# prepare datasetsx_data=torch.Tensor([[1],[2],[3],[4]])y_data=torch.Tensor([[0],[0],[1],[1]])# custormize your modelclass Model(torch.原创 2020-11-18 16:49:08 · 88 阅读 · 0 评论 -
pytorch 学习代码(一)线性回归
import numpy as np import matplotlib.pyplot as mplot x_data=[1,2,3]y_data=[2,4,6]def forward(x): return(x*w)def loss(x,y): y_pred=forward(x) return (y_pred-y)*(y_pred-y)w_list=[]mse_list=[]for w in np.arange(0,4.1,0.1): print('原创 2020-11-10 18:38:42 · 684 阅读 · 0 评论 -
傻瓜式一站式 pytorch 安装笔记(快速版)
一、一点前期准备下载Anaconda,版本不限,下载完成后,点击安装时注意有“添加到环境变量”选项时记得勾选,这样就可以不用自己再配置环境变量了。(如果你没点,那么切记你的安装路径,后续自己添加环境变量时用的到。)查看自己显卡的版本号,方法为该链接; 找到自己版本号,如我的如下图1;得到版本号后,找对应自己可以下载的cuda版本。如下图2,你的版本号的值决定了你可以下载的cuda版本的上限,如我的可以选择CUDA 10.0.130版本及以下的cuda.去该网址1和该网址2分别下载CUDA和原创 2020-06-08 16:37:53 · 533 阅读 · 0 评论 -
KL散度的数学概念(直观易懂)
关键点摘要KL 散度是一种衡量两个概率分布的匹配程度的指标,两个分布差异越大,KL散度越大。定义如下:img其中 p(x) 是目标分布,q(x)是去匹配的分布,如果两个分布完全匹配,那么imgKL 散度又叫相对熵,在信息论中,描述的是q去拟合p的产品的信息损耗。KL 散度是非对称,即 D(p||q) 不一定等于 D(q||p) 。KL 散度经常作为优化的目标。机器学习是当前最重要...转载 2019-10-11 17:20:52 · 413 阅读 · 0 评论 -
RNN与CNN最强科普
版权声明:本文为博主许佳佳原创文章,转载请务必注明出处。 https://blog.csdn.net/Double2hao/article/details/84451405概要本文科普性质偏多,主要讲一下神经网络中一些常见的概念,如果是完全不懂的小白也可以阅读。本文参考:https://blog.csdn.net/v_JULY_v/article/details/51812459ht...转载 2019-09-04 17:37:19 · 618 阅读 · 0 评论