机器学习
Lininggggggg
这个作者很懒,什么都没留下…
展开
-
模型转换:ckpt转pb转mnn
模型转换:ckpt转pb转mnn相关的参考链接:https://netron.app/https://blog.csdn.net/qqqzmy/article/details/86060131https://blog.csdn.net/sxlsxl119/article/details/81937815https://blog.csdn.net/weixin_40400177/article/details/81098204https://blog.csdn.net/sinat_29957455原创 2021-04-09 15:58:08 · 267 阅读 · 0 评论 -
归一化
归一化https://www.cnblogs.com/wanghui-garcia/p/10877700.htmlBN层相当于是把十张三通道RGB图片,合并成一张三通道RGB图片:不同图片的R,G,B通道分别合并,不互相混合。即十张R通道合并为一张R通道,其他类似;LN层相当于是把十张三通道RGB图片,合并成十张单通道的图片:同一张图片的RGB通道合并,不同图片不相互混合;GN层是LN的特例,如上图所示,只合并部分通道,而非3通道一起合并;IN层是单元级别的归一化;SN层是前面几种方法的加权和原创 2020-07-22 10:45:25 · 262 阅读 · 0 评论 -
Epoch和Batch,权重衰减和Dropout,Softmax和Logistic,IOU的基本概念
由于是从Word文档直接复制过来,其中格式如果乱码或者不通顺,请评论区告知我目录一、卷积网络基本概念1、Epoch和Batch2、权重衰减(weight decay)和Dropout(清理掉无用的神经元)3、Softmax逻辑回归和Logistic回归4、IOU的概念一、卷积网络基本概念参考链接:https://blog.csdn.net/lql0716/article/details/808531691、Epoch和BatchEpoch 当一个完整的数据集 D 通过了神经网络一次并且.原创 2020-06-06 14:13:01 · 629 阅读 · 0 评论 -
Ax=b不可逆解法
由于是从Word文档直接复制过来,其中格式如果乱码或者不通顺,请评论区告知我参考资料: 西瓜书第三章 https://blog.csdn.net/weixin_41757059/article/details/79418453目录:Ax=b一、Ax=b不可逆解法一、Ax=b不可逆解法1、对于一个需要进行线性回归的函数f(x0)=wx+bf(x_0)=wx+bf(x0)=wx+b,我们的目的是得到参数w和b,对此使得f(xi)≈yif(x_i) \approx y_if(xi)≈yi.原创 2020-06-03 09:36:56 · 2302 阅读 · 0 评论