每日学习笔记
step step
某高校硕士研究生在读,研究方向为深度学习,图像处理。
展开
-
2021/02/27--*args, **kwargs
Python中的*args、**kwargs 一、调用时候传不定参数。 1. 正常调用 def func(a, b, c): print(a, b, c) func(1, 2, 3) output: 1, 2, 3 2. **调用 d = {"b": 5, "c": 7} func(1, **d) output: 1, 5, 7 3. *调用 e = (1, 5, 7) func(*e) 二、定义时传入不定参数 1. **kwargs def func(a, **k原创 2021-02-27 22:03:12 · 91 阅读 · 0 评论 -
读取图片错误
OSError: image file is truncated (0 bytes not processed) 解决方式 from PIL import ImageFile ImageFile.LOAD_TRUNCATED_IMAGES = True原创 2022-02-13 12:37:19 · 432 阅读 · 0 评论 -
Faiss快速入门
目的:收集一批一级分类中的badcase,添加到训练集中,提高精度 方法:利用筛选出的难例的分类特征,构建一个特征索引库,先将训练数据过一遍索引 Faiss is a library for efficient similarity search and clustering of dense vectors. https://github.com/facebookresearch/faiss/wiki faiss快速入门 数据准备 faiss可以处理固定维度d的向量集合,这样的集合这里用二维数组表示。 一原创 2021-03-16 16:34:08 · 612 阅读 · 0 评论 -
2021/02/27 -- [分布式训练]单机多卡
pytorch 单机多卡训练 DistributedDataParallel(DDP): All-Reduce模式, 本意是用来分布式训练的,但是也可以用于单机多卡 现在官方建议DDP, DP的较少。本来是设计为多几多卡,但是单机多卡也能用。用法如下。 1.初始化使用nccl后端。 torch.distributed.init_process_group(backend="nccl") 2. 模型并行化 mode = torch.nn.parallel.DistributedDataPar原创 2021-02-27 22:23:45 · 527 阅读 · 0 评论 -
今日学习总结(8)
关于激活函数: Relu优点: Relu函数 速度块:无需计算sigmoid中的指数倒数,relu函数就是max(0, x),计算代价小 减轻梯度消失:在神经网络反向传播时,sigmoid函数求梯度之后会逐渐变小,而Relu函数的梯度是一,会减小梯度消失。 稀疏性:可以看到,Relu在输入小于零时,输出也为零,这意味着函数不激活,从而更加稀疏。 全连接层(Fully conected con...原创 2020-03-07 15:00:55 · 262 阅读 · 0 评论 -
今日学习总结(五)
顶顶顶原创 2020-03-01 18:57:06 · 196 阅读 · 0 评论 -
日常学习记录
今日笔记: 1. 利用 Scikit-learn 实现简单的逻辑回归(logisticRegression)/线性回归(lenarRegression)。 读取数据 分析数据 处理数据 训练数据 得到结果 再写程序的时候,想尽量使得代码模块化,就复习了一下如何调用另一个python文件中的代码。 分两种: 1.在同一个文件夹 在 b.py 文件中用下面两句话就可完成 a.py 文件中 fu...原创 2020-02-17 22:14:36 · 157 阅读 · 0 评论