![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 70
Jnchin
这个作者很懒,什么都没留下…
展开
-
【炼丹笔记】如何看loss调参
看loss调参train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习;train loss 不断下降,test loss趋于不变,说明网络过拟合;train loss 趋于不变,test loss不断下降,说明数据集100%有问题;train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目;train loss 不断上升,test loss不断上升,说明网络结构设计不当,原创 2021-09-27 10:38:52 · 2372 阅读 · 0 评论 -
如何计算一个神经网络模型的时间复杂度
在计算机中,加法运算比乘法运算快很多,所以在估计计算量的时候我们主要计算要做多少次乘法。在神经网络中,主要的运算是矩阵乘法。矩阵乘法的计算量是这样计算的:一个的矩阵乘以一个 的矩阵要做 次乘法,所以 就是两个矩阵相乘的计算量了。如果 足够大,则其复杂度为。这就是我们计算神经网络复杂度的依据。【举个例子】计算某两层网络的复杂度?假设矩阵是 的,是 的,是 的。所以第一层是 的矩阵乘以 的矩阵,得到一个 的矩阵,计算量为 ;第二层就是 ...原创 2021-08-17 11:26:09 · 3696 阅读 · 2 评论 -
【炼丹笔记】调参方法总结
参考:https://tianchi.aliyun.com/notebook-ai/detail?spm=5176.12586969.1002.24.1cd8593aLNK3uJ&postId=95460目前调参方案有:贪心调参参考:https://blog.csdn.net/m0_37893230/article/details/104449166网格调参随即搜索调参贝叶斯调参参考:https://zhuanlan.zhihu.com/p/54030031时间紧,改天再整理完善原创 2021-03-14 12:24:27 · 2475 阅读 · 0 评论 -
反向传播求偏导原理简单理解
神经网络中用反向传播求偏导数的思想就相当于复合函数求偏导。从头说起,在学生时代我们要求下面式子中,函数e(a,b)e(a,b)e(a,b)对a和b的偏导数:e=(a+b)∗(b+1)e=(a+b)*(b+1)e=(a+b)∗(b+1)∂e∂a=?\frac{\partial e}{\partial a}=?∂a∂e=?∂e∂b=?\frac{\partial e}{\partial b}=?∂b∂e=?传统的求偏导方法就是用解析式直接求偏导即可。但如果随着函数复合的层数增多,对应的就是神经原创 2020-09-23 10:29:30 · 4074 阅读 · 2 评论 -
逻辑程序设计语言Prolog
Prolog 概念: Prolog(PROgramming in LOGic的缩写)语言是一种基于 Horn 子句的逻辑型程序设计语言,也是一种陈述性语言。 Prolog 与人工智能的知识表示、自动推理、图搜索、产生式系统和专家(知识)系统有着天然的联系,很适合智能程序设计。 若想详细了解可自行百科:http://baike.baidu.com/item/Prolog今天我们先搞明原创 2017-06-23 10:16:23 · 26900 阅读 · 2 评论