![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 64
人工智能,机器学习,深度学习,计算机视觉
shulongjiang
这个作者很懒,什么都没留下…
展开
-
conda命令
查看环境conda env list进入环境conda activate base退出环境conda deactivate添加镜像conda config --add channels conda-forgeconda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config --add channels https://mirrors.tuna.tsinghu原创 2021-11-04 22:08:18 · 687 阅读 · 0 评论 -
opencv笔记
1.读取图片imge = cv2.imread(IMAGE_PATH)2.转灰度图gray = cv2.cvtColor(imge, cv2.COLOR_BGR2GRAY)3.图像缩放image = cv2.resize(image, (400, int(400 * image.shape[0] / image.shape[1])))4.高期模糊gray = cv2.GaussianBlur(gray, (5, 5), 0)5.局部自适应阀值二值化binary = cv2.adaptiv.原创 2021-08-05 22:41:33 · 421 阅读 · 0 评论 -
交叉熵损失函数
随机变量x的取值集合X={x1,x2,x3}概率分布P(x)P(x1)=0.2P(x2)=0.3P(x3)=0.5信息量信息量是指信息多少的量度,概率越大信息量越少,概率越小信息越大。I(x1)=-log(P(x1))=2.32I(x2)=-log(P(x2))=1.73I(x3)=-log(P(x3))=1概率与信息量关系曲线熵表示信息量的期望。H(x)=-∑P(x)log(P(x))=0.2*2.32 + 0.3*1.73 + 0.5*1=1.4.原创 2021-06-10 14:46:31 · 347 阅读 · 0 评论 -
混合精度与单精度对比
使用混合精度代码更改很少scaler = GradScaler()with autocast(): out = model(data) loss = loss_func(out, target)scaler.scale(loss).backward()scaler.step(opt)scaler.update()只有PASCAL架构显卡最大批次TITAN X PASCAL 12G单精度batch=3100 混合精度batch=5000 批次大小提升61%..原创 2020-12-11 22:34:56 · 1072 阅读 · 0 评论 -
深度学习Windows单机多GPU并行
pytorch1.7 win10 两张GTX1070一、torch.nn.parallel.DistributedDataParallel1、接收并行调用传入的参数 parser = argparse.ArgumentParser() parser.add_argument("--local_rank", type=int) args = parser.parse_args()2、设置当前进程GPU torch.cuda.set_device(args.local...原创 2020-12-06 23:01:45 · 3359 阅读 · 5 评论 -
安装conda,python,pytorch,tensorflow,pycharm
mac下载安装minicondavi ~/.bash_profile如果没有就手动加上 export PATH=/opt/miniconda3/bin:$PATHsource $HOME/.bash_profileconda activate baseconda deactivate 退出环境conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/conda config原创 2020-06-21 21:26:04 · 248 阅读 · 0 评论