ai
张小猪的家
这个作者很懒,什么都没留下…
展开
-
pytorch apex安装
https://blog.csdn.net/weixin_38215769/article/details/106568368转载 2021-11-26 15:44:46 · 1063 阅读 · 0 评论 -
sublime
https://blog.csdn.net/csdn_chenli/article/details/68060943https://blog.csdn.net/qq_43722079/article/details/97777585转载 2021-11-23 15:10:50 · 97 阅读 · 0 评论 -
mac访问win文件
https://www.jianshu.com/p/4b650b48c643https://jingyan.baidu.com/article/fb48e8be1d2c576e632e1441.html转载 2021-11-16 22:19:40 · 133 阅读 · 0 评论 -
RuntimeError: CUDA error: device-side assert triggered
https://blog.csdn.net/Penta_Kill_5/article/details/118085718转载 2021-11-09 22:02:26 · 121 阅读 · 0 评论 -
pandas去重
https://blog.csdn.net/lzx159951/article/details/104352842转载 2021-10-28 17:57:36 · 91 阅读 · 0 评论 -
numpy 和pytorch的矩阵/张量拼接
https://www.jianshu.com/p/85d27161b981https://pytorch.org/docs/stable/generated/torch.cat.html?highlight=cat#torch.cat转载 2021-10-20 19:39:47 · 384 阅读 · 0 评论 -
screen 命令使用及示例
https://linux.cn/article-8215-1.html转载 2021-10-19 14:08:20 · 173 阅读 · 0 评论 -
XGBoostError: XGBoost Library (libxgboost.dylib) could not be loaded.
https://www.cnblogs.com/hankleo/p/13739899.html转载 2021-10-09 17:25:36 · 338 阅读 · 0 评论 -
anaconda 如何创建虚拟环境
https://zhuanlan.zhihu.com/p/153498612转载 2021-09-18 13:27:17 · 157 阅读 · 0 评论 -
Linux 安装 Conda
文章目录下载安装包安装过程配置环境变量验证安装下载安装包首先进入anaconda官网下载界面https://www.anaconda.com/products/individual-d#Downloads然后找到对应的版本,一般选择第一个就行,右键复制下载链接进入服务器后输入 wget + 刚才复制的链接 就开始下载了,比如:wget https://repo.anaconda.com/archive/Anaconda3-2021.05-Linux-x86_64.sh安装过程然后运行原创 2021-09-18 13:20:01 · 316 阅读 · 0 评论 -
batch normalization和layer normalization
动机深度学习这种包含很多隐层的网络结构,在训练过程中,因为各层参数不停在变化。另一方面,深度神经网络一般都是很多层的叠加,每一层的参数更新都会导致上层的输入数据在输出时分布规律发生了变化,并且这个差异会随着网络深度增大而增大。原理BN把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布,其实就是把越来越偏的分布强制拉回比较标准的分布。这样让梯度变大,避免梯度消失问题产生,而且梯度变大意味着学习收敛速度快,能大大加快训练速度。经过BN后,目前大部分Activation的值落入原创 2021-09-03 22:14:45 · 453 阅读 · 0 评论 -
面试问题汇总
1.现在对针对bert的改进有哪些?参考答案一方面,针对我们自己进行训练的模型,模型改进更多出现在微调网络的选择上。对于BERT的效果提升更多依赖于对数据的调整。另一方面,从整个NLP发展的角度,新型模型如ALBERT,XLNET都对BERT做了一系列的改进,如:为了降低参数量,对Embedding矩阵进行因式分解,不同的encoder层进行参数共享;预训练数据去除主题影响,句子对使用相同主题来源,最后发现模型在100w步后仍然没有过拟合,移除dropout层。2.fasttext和word2vec原创 2021-08-16 17:38:26 · 1481 阅读 · 0 评论 -
卷积神经网络
典型的 CNN 由3个部分构成:卷积层池化层全连接层如果简单来描述的话:卷积层负责提取图像中的局部特征;池化层用来大幅降低参数量级(降维);全连接层类似传统神经网络的部分,用来输出想要的结果。下面的原理解释为了通俗易懂,忽略了很多技术细节,如果大家对详细的原理感兴趣,可以看这个视频《卷积神经网络基础》。卷积——提取特征卷积层的运算过程如下图,用一个卷积核扫完整张图片:这个过程我们可以理解为我们使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征值。在具体应用中转载 2021-08-18 17:57:12 · 205 阅读 · 0 评论 -
交叉熵损失函数推导
我们知道,在二分类问题模型:例如逻辑回归「Logistic Regression」、神经网络「Neural Network」等,真实样本的标签为 [0,1],分别表示负类和正类。模型的最后通常会经过一个 Sigmoid 函数,输出一个概率值,这个概率值反映了预测为正类的可能性:概率越大,可能性越大。Sigmoid 函数的表达式和图形如下所示:其中 s 是模型上一层的输出,Sigmoid 函数有这样的特点:s = 0 时,g(s) = 0.5;s >> 0 时, g ≈ 1,s <&转载 2021-08-16 17:39:49 · 411 阅读 · 0 评论 -
GLUE数据集下载
链接:https://pan.baidu.com/s/1HrWGChw484Rkl1SwqReHZw提取码:s1os原创 2021-07-03 15:10:33 · 310 阅读 · 0 评论 -
TORCH.TRIU
torch.triu(input, diagonal=0, *, out=None) → Tensor返回一个上三角矩阵参数:input:输入的张量diagonal:对角线>>> a = torch.randn(3, 3)>>> atensor([[ 0.2309, 0.5207, 2.0049], [ 0.2072, -1.0680, 0.6602], [ 0.3480, -0.5211, -0.457.原创 2021-06-24 20:07:08 · 4333 阅读 · 0 评论 -
torch.narrow
第一个参数是代表横轴删除还是纵轴删除,0为横轴,1为纵轴第二个和第三个参数代保留开始轴到结束轴的数字,类似于切片x = torch.tensor([[1,2,3],[4,5,6],[7,8,9]])xtensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])x.narrow(0,0,2)tensor([[1, 2, 3], [4, 5, 6]])x.narrow(1,1,2)tensor([[2, 3], .原创 2021-06-24 13:51:24 · 85 阅读 · 0 评论 -
unicode转ascii(python实现)
处理部分国外的人名需要使用,直接上代码def unicodeToascii(s): return "".join( c for c in unicodedata.normalize("NFD",s) if unicodedata.category(c) != "Mn" and c in all_letters )print(unicodeToascii("Ślusàrski"))‘Slusarski’...原创 2021-06-16 21:30:41 · 448 阅读 · 0 评论 -
googletrans翻译接口踩坑
最近刚开始学习nlp,到了文本增强的互译部分,记录一下调用googletrans遇到的问题问题1:ConnectTimeout: timed out解决方法:在实例化翻译对象时加入service URLtranslator = Translator(service_urls=[ 'translate.google.cn', ]) 问题2:googletransAttributeError: ‘NoneType’ object has no attribute ‘原创 2021-06-13 22:39:08 · 1431 阅读 · 2 评论 -
CNN中卷积层和池化层的计算
使用卷积神经网络时候需要搞清楚卷积层输入输出的尺寸关系,计算公式如下:这么说很抽象,举个例子,这是pytorch官方给的手写字识别的网络结构:https://pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html#sphx-glr-beginner-blitz-neural-networks-tutorial-py这里是网络结构图:这是对应的代码:import torchimport torch.nn as nn原创 2021-06-07 20:17:20 · 4533 阅读 · 0 评论 -
jupyter tensorflow 代码无法自动补全
装好tensorflow2.4,jupyter notebook一直无法补全代码,但numpy、pandas却都正常。解决方法:只需要将jedi版本从0.18.0降至0.17.2即可pip install jedi==0.17.2参考:https://zhuanlan.zhihu.com/p/355185495原创 2021-06-07 16:14:42 · 216 阅读 · 0 评论 -
tensorflow keras模型加载错误
今天加载resnet101模型报错mynet = tf.keras.applications.ResNet101( include_top=False, weights="imagenet", input_tensor=None, input_shape=(32,32,3), pooling=None, classes=10)Exception: URL fetch failure on https://storage.googleapis.com/tensorflow/keras-原创 2021-06-06 22:55:02 · 498 阅读 · 0 评论 -
CIFAR-10训练模型(ResNet18)
1.搭建环境环境在实验进行时已经搭建完毕,具体步骤就不过多赘述(参考:https://blog.csdn.net/weixin_39574469/article/details/117454061)接下来只需导入所需的包即可import numpy as npimport tensorflow as tfimport matplotlib.pyplot as pltfrom PIL import Imagefrom tensorflow.keras import layers,activati原创 2021-06-04 22:55:25 · 5570 阅读 · 4 评论 -
tensorflow gpu版本最新安装方法(2021.06)
刚开始接触深度学习,因为有的教程是基于pytorch有的是基于tensorflow,前几天安装完成了pytorch,现在安装一下tensorflow,查看pytorch安装教程请移步:https://blog.csdn.net/weixin_39574469/article/details/117429815文章目录前言1 cuda安装2 cuDNN安装3 tensorflow 安装前言tensorflow的安装过程比pytorch要复杂一些,一定要仔细,不然很容易安装错。安装tensorflo原创 2021-06-01 22:08:51 · 1713 阅读 · 0 评论 -
pytorch gpu版本最新安装方法(2021.06)
第一次安装pytouch,踩了很多坑,于是把安装过程和和遇到的问题总结一下文章目录安装步骤安装验证出现的问题安装步骤不用提前安装cuda,不用提前安装cuda,不用提前安装cuda重要的事情说三遍,现在网上大部分安装教程先安装cuda,但是cuda已经集成在pytorch官网给的安装指令里了,不需要单独安装首先进入pytorch官网:https://pytorch.org/get-started/locally/选择合适的版本后会出现安装命令,只需要用命令行运行pytorch就可以安装完成。原创 2021-05-31 21:26:19 · 1575 阅读 · 2 评论