![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 88
记录自己在深度学习上的点滴,坚持每周打卡学习。
Shell-We
记录成长点滴,心怀敬畏,向大神致敬。
展开
-
python中format格式化输出总结
基本知识位置,数字,关键字匹配‘名字:{name}, 性别:{gender}’.format(gender=‘男’, name=‘张三’)‘名字:{}, 性别:{}’.format(‘男’, ‘张三’)‘名字:{1}, 性别:{0}’.format(‘男’, ‘张三’)常用格式化输出方式https://blog.csdn.net/weixin_39791387/article/details/118194441字符串:-左对齐默认右对齐^居中对齐%s%10s: 右对齐,占位符10位原创 2022-04-29 10:18:42 · 10433 阅读 · 3 评论 -
pytorch框架自动调整学习率的几种方式
目录一、引言一、引言 学习率的对于炼丹师来说非常重要,本文主要总结几种pytorch中常用的几种调整学习率的几种方式。学习率要在损失和收敛速度中做出权衡。学习率对于深度学习炼丹来说尤为重要,一个合适的学习率不仅能加速训练的拟合,还能更好地逼近最优解。固定的学习率随着深度学习模型逐渐上升的复杂性已不太适用,动态调整学习率或者对模型不同部分设置不同的学习率已成为一种炼丹趋势1。参考一所有Optimizer公有的一些基本属性:lr: learning rate,学习率eps: 学习率最小值,在原创 2022-04-24 22:26:36 · 6501 阅读 · 0 评论 -
argparse命令行参数与参数解析
目录一、命令行与参数解析工具的作用?二、argparse命令行与参数解析工具 2.1 argparse使用步骤 2.2 argparse.ArgumentParser的常用参数解释 2.3 argparse.ArgumentParser.add_argument常用参数解释三、两种解析方式的区别 3.1 parse_args()解析方式 3.1 parse_known_args()解析方式四、参考链接备注:t.py为所运行代码的文件名 终端中的路t.py文件所在路径一、命令行与参数解析工具的作用?原创 2022-04-22 15:08:14 · 3019 阅读 · 0 评论 -
归一化/标准化
目录一、前言二、归一化 2.1 线性归一化 2.2 非线性归一化三、标准化四、pytorch的BN层五、参考资料一、前言 归一化和标准化都是一种数据变换的方式,将原始的一列数据变换到某个范围。二、归一化 2.1 线性归一化 归一化(Normalization),将数据固定到某个区间,通常为[0,1]。几种常见的归一化方式如下所示: (1) Min-Max Normalization:Xi′=Xi−XminXmax−XminX_{i}^{'}=\frac{X_i-X_{原创 2022-03-15 23:01:50 · 1322 阅读 · 0 评论 -
Anaconda虚拟环境创建并安装Jupyternotebook及常用命令总结
目录一、Anaconda简介 1.1 为什么要用Anaconda?二、利用Anaconda创建虚拟环境一、Anaconda简介 Anaconda指的是一个开源的Python发行版本,是Python的一个集成管理工具或者系统,其包含了conda、Python等180多个科学包及其依赖项。因为包含了大量的科学包,Anaconda 的下载文件比较大(约 600MB),如果只需要某些包,或者需要节省带宽或存储空间,也可以使用Miniconda这个较小的发行版(仅包含conda和 Python)。 1.1原创 2021-09-28 09:24:31 · 5476 阅读 · 0 评论 -
概率论基础-条件概率、全概率公式、贝叶斯公式
目录一、条件概率 1.1 条件概率定义 1.2 条件概率例题 1.3 乘法定理 1.4 乘法定理例题 1.5 全概率公式一、条件概率 1.1 条件概率定义 条件概率是指事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为:P(A∣B)P(A|B)P(A∣B),读作“在B的条件下A的概率”。 1.2 条件概率例题 投掷一枚硬币2次,A表示“至少有一次出现正面”;B表示“两次出现同一面”,求P(A)P(A)P(A)、P(B)P(B)P(B)、P(AB)P(AB)P(原创 2021-09-24 15:53:11 · 4269 阅读 · 1 评论 -
快速入门LSTM
十分钟学会LSTM一、引言二、RNN基本结构 2.1 普通DNN与RNN的区别 2.1 RNN存在的缺点三、RNN到LSTM 3.1 遗忘门 3.2 记忆门(输入门) 3.3 细胞状态 3.4 输出门四、参考文献一、引言 LSTM是RNN的变体,因此在了解LSTM之前我们有必要先了解一下RNN的基本结构。二、RNN基本结构 2.1 普通DNN与RNN的区别 普通的DNN结构一般包括:输入层,隐藏层,和输出层。但是隐藏层的输出和输入之间无反馈。DNN结构如下图所示。原创 2021-06-08 16:08:31 · 909 阅读 · 1 评论 -
tensorflow常用构造深度学习模型的两种方式
tensorflow常用构造深度学习模型的两种方式一、引言二、Sequtial()方式 2.1 向Sequential()中传递layer列表 2.2 利用model.add()方法添加layer三、函数式API四、栗子-手写体数字识别五、总结六、参考文章一、引言 tensorflow常用构造模型的方式有三种: 1、Sequential()方式 2、函数式API 3、Subclassing API二、Sequtial()方式 2.1 向Sequential()中传递laye原创 2021-05-25 15:33:34 · 634 阅读 · 1 评论