工具类
LN烟雨缥缈
这个作者很懒,什么都没留下…
展开
-
最容易理解的贝叶斯算法原理
1. 简介 在网络上介绍贝叶斯定理,贝叶斯网格的资料随处可见,我在此处就简单给大家的阐述一下什么是贝叶斯,贝叶斯方法其实在高中的时候我们就已经开始接触了,高中的概率大部分讲述的就是贝叶斯方法。 其实在贝叶斯方法真正的被人们认可之前,频率派是概率的主导,假设又一袋球,里面有若干红球和黑球,在贝叶斯之前你随便问一个人拿出红球的概率是多少,他会说50%。嘿!懵逼不?没有黑球红球的数量怎么知道的50%,频率派中的思考方式是不是红球就是黑球,所以50%。2.1 贝叶斯方法的提出 托马斯·贝...转载 2021-11-19 13:08:55 · 5321 阅读 · 0 评论 -
plt.imshow()无法显示两站图片?
在做测试的时候,显示图片,从cv2读取image之后发现只能显示一张图片,如果plt.imshow()显示来张图片的话,第二章会覆盖第一张图片的位置,其实只要添加一行命令即可:plt.show(),举个例子:img1=plt.imread("test1.jpg")plt.imshow(img1)plt.show()img2=plt.imread("test2.jpg")plt.imshow(img2)plt.show()...原创 2021-09-08 11:19:31 · 855 阅读 · 0 评论 -
一文看懂训练集loss与测试集loss关系
train loss 不断下降,test loss不断下降,说明网络仍在学习;train loss 不断下降,test loss趋于不变,说明网络过拟合;(max pool或者正则化)train loss 趋于不变,test loss不断下降,说明数据集100%有问题;train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目;或者是数据集有问题(数据集标注错误数据比较多)train loss 不断上升,test loss不断上升,说明网络结构设计转载 2021-09-07 09:38:29 · 3600 阅读 · 1 评论 -
一文看懂训练集loss 与验证集loss关系说明
train loss 不断下降,test loss不断下降,说明网络仍在学习;train loss 不断下降,test loss趋于不变,说明网络过拟合;(max pool或者正则化)train loss 趋于不变,test loss不断下降,说明数据集100%有问题;train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目;或者是数据集有问题(数据集标注错误数据比较多)train loss 不断上升,test loss不断上升,说明网络结构设计转载 2021-11-17 10:42:26 · 9922 阅读 · 4 评论 -
keras.fit epoch回调函数详解
在每个training/epoch/batch结束时,如果我们想执行某些任务,例如模型缓存、输出日志、计算当前的auc等等,Keras中的callback就派上用场了。Example 记录每个batch的损失函数值import keras # 定义callback类class MyCallback(keras.callbacks.Callback): def on_train_begin(self, logs={}): self.losses = []转载 2021-09-06 15:09:53 · 960 阅读 · 0 评论 -
网络模型早停earlystopping详解
早停!? earlystopping for keras 为了获得性能良好的神经网络,网络定型过程中需要进行许多关于所用设置(超参数)的决策。超参数之一是定型周期(epoch)的数量:亦即应当完整遍历数据集多少次(一次为一个epoch)?如果epoch数量太少,网络有可能发生欠拟合(即对于定型数据的学习不够充分);如果epoch数量太多,则有可能发生过拟合(即网络对定型数据中的“噪声”而非信号拟合)。早停法旨在解决epoch数量需要手动设置的问题。它也可以被视为一种能够避免网络发生过拟合的正则化转载 2021-09-06 15:00:26 · 2352 阅读 · 0 评论 -
如何查看Linux cpu核数、版本等信息
如何查看Linux cpu核数、版本等信息CPU总核数 = 物理CPU个数 * 每颗物理CPU的核数总逻辑CPU数 = 物理CPU个数 * 每颗物理CPU的核数 * 超线程数1、查看CPU信息(型号):[root@iZ2ze1rl2qyewq63peun8vZ ~]# cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c24 Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz2、查查物理cpu个数:..转载 2021-09-03 08:31:57 · 3530 阅读 · 1 评论 -
详细说明 NVIDIA-SMI GPU信息显示
在进行深度学习实验时,GPU 的实时状态监测十分有必要。今天详细解读一下 nvidia-smi 命令。这里写图片描述上图是服务器上 GeForce GTX 1080 Ti 的信息,下面一一解读参数。上面的表格中的红框中的信息与下面的四个框的信息是一一对应的:GPU:GPU 编号;Name:GPU 型号;Persistence-M:持续模式的状态。持续模式虽然耗能大,但是在新的GPU应用启动时,花费的时间更少,这里显示的是off的状态;Fan:风扇转速,从0到100%之间变动;Tem转载 2021-09-03 08:17:27 · 1428 阅读 · 0 评论 -
CNN中卷积和池化计算公式
卷积计算公式1、卷积层输入特征图(input feature map)的尺寸为:H(input)×W(input)×C(input)H(input)表示输入特征图的高W(input)表示输入特征图的宽C(input)表示输入特征图的通道数(如果是第一个卷积层则是输入图像的通道数,如果是中间的卷积层则是上一层的输出通道数2、卷积层的参数有如下几个输出通道数为K正方形卷积核的边长为F...原创 2021-08-27 10:28:52 · 13258 阅读 · 0 评论 -
jupyter notebook安装Nbextensions
一、基本操作1、通过cmd打开jupyter notebook。jupyter notebook如果没出错,就会在浏览器中打开notebook文件。2、在file菜单栏下有本地文件夹的路径,可以点击相应的文件打开本地的notebook文件。3、可以在new菜单栏下新建一个python3文件。二、notebook快捷键的使用1、执行单元格:ctrl + enter2、执行当前单元格,并移动到下一个单元格:shift + enter3、执行当前单元格,并新建、移动到下一个单元格:转载 2021-08-16 10:23:54 · 982 阅读 · 0 评论 -
nvidia-smi 报错:无法与 nvidia driver 通信
用 GPU 跑模型时,提示 cuda 不存在,明明已经装过!不会 nvidia 驱动又崩了吧!赶紧用 nvidia-smi 查看一下,提示如下错误:NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.网上搜了一下,用下面的方法顺利解决了问题 ,参考:https://转载 2021-08-11 08:19:36 · 272 阅读 · 0 评论