![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文问题详解
文章平均质量分 82
一些自我问答
Zn_lunar
这个作者很懒,什么都没留下…
展开
-
论文问题详解5:雅克比矩阵
我对雅克比矩阵的了解更清晰了,但并不能从公式推导上解释“费舍尔信息矩阵=雅克比矩阵×误差协方差”只是从直观的角度能够解释在面对论文提问时应该可以回答t=N4P3t=N4P3jacobi矩阵 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/383712726对雅可比矩阵的理解 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/123934469。原创 2023-05-29 16:20:11 · 1262 阅读 · 0 评论 -
无偏估计——方差n-1的讨论
(4条消息) 论文问题详解4:克拉美罗下界_Zn_lunar的博客-CSDN博客。感觉关于无偏估计的方差讨论也算一个比较典型的问题,于是专门记录一下。克拉美罗下界中用到了无偏估计,算协方差矩阵也有关。原创 2023-05-28 20:09:05 · 66 阅读 · 0 评论 -
论文问题详解4:克拉美罗下界
无偏估计是一种用样本统计量来估计总体参数的方法,它的特点是估计量的数学期望等于被估计参数的真实值¹⁴。也就是说,无偏估计没有系统性的误差,只有随机性的误差。无偏估计可以反映总体参数的真实情况,是一种优良的估计量。例如,样本均值是总体均值的无偏估计,样本方差除以n-1是总体方差的无偏估计²⁵。源: 与必应的对话, 2023/5/27(1) 无偏估计和有偏估计的区别 - 知乎. https://bing.com/search?原创 2023-05-27 00:58:21 · 3637 阅读 · 3 评论 -
论文问题详解3:Fisher information matrix
(4) 高维非凸时代下的 Fisher information与深度学习的泛化能力 - 知乎. https://zhuanlan.zhihu.com/p/34394897.(2) Fisher Information Matrix - 知乎. https://zhuanlan.zhihu.com/p/474994301.(1) 费舍尔信息矩阵及自然梯度法 - 知乎. https://zhuanlan.zhihu.com/p/228099600.回看了之前学的时候做的笔记,感觉其实也很清晰,可以参考。原创 2023-05-25 22:55:30 · 885 阅读 · 1 评论 -
论文问题详解1:协方差与不确定性
原文总结:协方差矩阵是可以反映测量结果的不确定度的,正如方差发挥的作用一样。(4) 高维非凸时代下的 Fisher information与深度学习的泛化能力 - 知乎. https://zhuanlan.zhihu.com/p/34394897.(2) 卡尔曼滤波 —— 各路大神和自己的总结 - 知乎. https://zhuanlan.zhihu.com/p/158751412.(1) 不确定度与协方差矩阵的关系 - 知乎. https://zhuanlan.zhihu.com/p/73375859.原创 2023-05-24 23:01:49 · 626 阅读 · 1 评论 -
人工智能、机器学习、深度学习、神经网络
人工智能是一个大的概念,包括了机器学习和深度学习。机器学习是实现人工智能的一种方法,深度学习是机器学习中的一种方法,而神经网络是机器学习的一个重要算法,也是奠定深度学习发展的基础算法。¹²³⁴⁵希望这可以帮到你!源: 与必应的对话, 2023/5/25(1) 一文看懂人工智能、机器学习、深度学习与神经网络之间的区别 .... https://zhuanlan.zhihu.com/p/86794447.原创 2023-05-25 21:27:03 · 82 阅读 · 1 评论 -
论文问题详解2:卡尔曼滤波器
现在跟着下文学习了一遍,结合了第二次在goodnote的笔记,感觉清晰了很多,第二次笔记放在本文最末尾,到时候有对应处可翻着回看(但是大部分对应的我应该都把对应的复制贴在了这次笔记旁边)第二次又看了这个视频,在goodnote做了更详细的笔记,但因为太详细了,有点乱,放到本文最末尾吧。(9条消息) 再谈卡尔曼滤波--五大公式_卡尔曼滤波器五个公式_狂奔的飞猪的博客-CSDN博客。第一次是跟着B站的视频学习的,做了笔记,但当时思路似乎不太清晰,只是跟着视频做了。原创 2023-05-25 23:08:19 · 84 阅读 · 1 评论