![](https://img-blog.csdnimg.cn/20190918140129601.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
借助中国历史增强记忆多学习一丢丢
文章平均质量分 82
专业知识很枯燥,读读每个知识当时的中国,这样知识就被记忆归化了也说不定呢
大隐、禅
愚公移山,子子孙孙无穷尽矣
展开
-
快速脸熟6种图存储数据结构和1736年那点事
选择合适的图存储结构取决于具体的应用需求,如图的稀疏性、是否需要频繁修改图结构、是否需要快速查询顶点关系等。原创 2024-03-29 10:39:32 · 397 阅读 · 0 评论 -
KMP算法之1974年
汪洋大海中的核潜艇,就像一个模式串一样,扎入了海洋这个文本串中,横移前进就像指针,探索着无人详尽的字符串。仔细看了下三人的生卒,发现了knuth还是1974年的图灵奖得主,真了不起,另两个人就不太清楚了。Knuth,镇神图,敬上!!!而说道图灵奖,不得不说2018年的三个图灵奖得主。2019年3月27日,美国计算机协会(ACM)宣布把2018年的图灵奖(Turing Award)颁给人工智能科学家Yoshua Bengio(约书亚·本吉奥)Geoffrey Hinton(杰弗里·辛顿)和。原创 2024-03-14 11:32:45 · 228 阅读 · 0 评论 -
“in”在数组和字典中的使用区别【哈希函数起源1973年】
数组需要遍历所有元素来查找,而字典则利用哈希表实现快速查找。原创 2024-03-13 09:16:54 · 214 阅读 · 0 评论 -
信息(香农)熵之1948年
KL散度的全称是Kullback-Leibler Divergence,也被称为相对熵(Relative Entropy)或信息散度(Information Divergence)。它是一种统计学度量,表示的是一个概率分布相对于另一个概率分布的差异程度。在概率学和统计学中,KL散度可以用来衡量两个概率分布之间的相似度。交叉熵是分类问题中常用的损失函数。它衡量的是模型预测的概率分布与真实标签的概率分布之间的差异。对于二分类问题,通常使用二元交叉熵;对于多分类问题,则使用多分类交叉熵。原创 2024-03-12 11:31:06 · 720 阅读 · 0 评论 -
最小二乘法之1801年【借助中国历史增强记忆学习一丢丢知识】
高斯,英文Gauss(混个脸熟)。学习一些ai领域机器学习、深度学习,tensorflow框架等,避不开的一个名字。最小二乘法也是避不开的一个优化领域的启蒙优化算法。原来是和谷神星有这么大的关系,相互成就。原创 2024-03-09 14:55:59 · 333 阅读 · 0 评论 -
AdaGrad之2011年;Adam之2015年【借助中国历史增强记忆学习一丢丢知识】
适应性矩估计) 是Adam的全称。而AdaGrad和RMSProp的全称分别是:AdaGrad的全称是Adaptive Gradient Algorithm,中文可以翻译为自适应梯度算法。RMSProp的全称是Root Mean Square Propagation,中文可以翻译为均方根传播。梯度:函数在某一点的方向导数沿着该方向取得的最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。学习率:AdaGrad自动调整每个参数的学习率,这是起源吧。原创 2024-03-11 11:28:10 · 955 阅读 · 0 评论