![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
微风袭来
这个作者很懒,什么都没留下…
展开
-
win下配置Pytorch 1.0.0的艰难过程
一tensorflow实在太麻烦了,想试试pytorch,花了大概两个小时的图书馆的时间,终于弄好了,明白了世间唯一的真理就是遇到问题Ctrl+c,点开baidu,Ctrl+V几乎都能得到解决,你碰到的别人一定碰到过我之前就安装过Anaconda,所以就不介绍了,也非常简单首先打开 Anaconda Prompt(一个像命令行的东西,具体和命令行之间的关系我也不是太清楚)输入pip3 i...原创 2019-09-17 08:24:04 · 5011 阅读 · 9 评论 -
Jupyter book简单配置
修改我修改了源码的这两处地方,做个记录,以后出了问题方便修改c.NotebookApp.notebook_dir = '' 默认目录位置c.NotebookApp.iopub_data_rate_limit = 100000000 这个改大一些否则有可能报错参考的是这两篇博客c.NotebookApp.notebook_dirc.NotebookApp.iopub_data_rate...原创 2019-09-10 10:25:44 · 218 阅读 · 0 评论 -
Pytorch学习知识点
Introduction to neural networks损失函数(error functions)最大似然概率(Maximizing Probabilities)交叉熵(Cross Entropy)原创 2019-09-11 00:05:06 · 121 阅读 · 0 评论 -
机器学习过程中的疑问与解答
逻辑回归为什么需要激活函数?原博客每层神经元的操作都是线性的,w*x+b,如果没有激活函数,多层神经元的效果会和单层神经元的效果相同,经过多层神经网络的加权计算,都可以展开成一次的加权计算为什么使用log对数损失函数原博客该损失函数用到了极大似然估计的思想。P(Y|X)通俗的解释就是:在当前模型的基础上,对于样本X,其预测值为Y,也就是预测正确的概率。由于概率之间的同时满足需要...原创 2019-09-12 16:57:49 · 291 阅读 · 0 评论 -
Pytorch(一)
One-hot encodingone_hot_data = pd.get_dummies(data, columns=['rank'])对某一列变量进行哑变量处理Splitting the data into Training and Testingsample = np.random.choice(processed_data.index, size=int(len(processed...原创 2019-09-14 19:29:58 · 113 阅读 · 0 评论 -
Pytorch(二)
随机数torch.manual_seed(7)features = torch.randn((1,5))weights = torch.randn_like(features)bias = torch.randn((1,1))乘法点乘直接使用乘号矩阵乘法# 乘法规则比较严谨,推荐使用torch.mm(a,b)# 乘法不严格torch.matmul()矩阵变形# 复制...原创 2019-09-15 23:06:55 · 128 阅读 · 0 评论 -
Pytorch(三)
计算准确率model = Classifier()criterion = nn.NLLLoss()optimizer = optim.Adam(model.parameters(), lr=0.003)epochs = 5steps = 0train_losses, test_losses = [], []for e in range(epochs): running_l...原创 2019-09-17 21:57:38 · 215 阅读 · 0 评论 -
决策树
信息,信息熵(与概率的关系),信息量非常有用的博客,讲的通俗易懂信息增益,信息增益率,基尼系数公式挺详细的决策树的三种算法引用了一个有趣的例子,恍然大悟的感觉真好...原创 2019-09-27 22:22:13 · 64 阅读 · 0 评论 -
scikit-learn学习(一)
广义线性模型普通最小二乘法(OLS)模型各项接近线性关系时,会出现多重共线性的问题,有局限性解决方法:前向逐步回归,惩罚线性回归正则化L1正则化(Lasso回归):在最小二乘法的最后加上 系数的L1范数,作为惩罚项Lasso能够将一些作用比较小的特征的参数训练为0,从而获得稀疏解。也就是说用这种方法,在训练模型的过程中实现了降维(特征筛选)的目的。Lasso是拟合稀疏系数...原创 2019-10-06 11:37:45 · 126 阅读 · 0 评论