个人笔记
文章平均质量分 58
hyk_1996
智能科学与技术
展开
-
LaTeX 系列(5) —— 特殊符号
1. 导入所需的包\usepackage{pifont} % \ding{xx}\usepackage{bbding} % \Checkmark,\XSolid,... (需要和pifont宏包共同使用)\usepackage{fontawesome} % \faCheck,\faTimes2. 打勾打叉latex代码:\checkmark\Checkmark\CheckmarkBold\XSolid\XSolidBold\XSolidBrush原创 2022-04-28 23:36:04 · 6727 阅读 · 1 评论 -
LaTeX 系列(4) —— Table
接上一篇LaTeX 系列(3) —— Figure,这篇文章介绍Latex中的各种Table样式和排版的实现。1.导入所需的包全部导入就完事了:\usepackage{booktabs} % toprule, midrule, bottomrule\usepackage{multirow} % multirow, multicolumn\usepackage{graphicx} % resizebox\usepackage{threeparttable} % footnot...原创 2022-04-18 16:53:57 · 1507 阅读 · 0 评论 -
LaTeX 系列(3) —— Figure
使用Latex的时候经常需要绘制各种图示,但是一直记不清,每次要用的时候都去找模板还是挺麻烦的,所以在这里总结一下常用的几种Figure类型。1.导入所需的包不管画什么图,全部导入就完事了:\usepackage{graphicx}\usepackage{float}\usepackage{subfig}\usepackage{overpic}2.1 单张图片显示Latex代码:% 单张图片显示\begin{figure}\centering\includegrap.原创 2021-11-25 14:57:00 · 14260 阅读 · 2 评论 -
论文笔记的格式
关于阅读文献 采用三步走的方法,而不是逐字逐句的全文阅读。第一步阅读让你对文献的主要想法有一个了解,判断该文献是否值得阅读(自己掌握的知识是否足够理解该文献);第二步阅读文献内容,而不是细节,做文献调研的话,到这一步就足够了;第三步是深入理解细节,以期望能够复现论文结果。 第一步,快速浏览,从而获得对文献的一个全局的把握,需要仔细地阅读文章标题、摘要、导论,以及各章节的标题。这...原创 2018-07-23 13:20:47 · 1508 阅读 · 0 评论 -
基于深度学习的低光照图像增强方法总结(2020.09.15更新)
之前在做光照对于高层视觉任务的影响的相关工作,看了不少基于深度学习的低光照增强(low-light enhancement)的文章[3,4,5,7,8,9,10],于是决定简单梳理一下。光照估计(illumination estimation)和低光照增强(low-light enhancement)的区别:光照估计是一个专门的底层视觉任务(例如[1,2,6]),它的输出结果可以被用到其它任务...原创 2019-08-15 16:29:21 · 29063 阅读 · 12 评论 -
编程时踩过的坑(主要是c++)
1.数值溢出存储数据时要考虑数值溢出的问题,选择合适的类型,特别要注意数值运算时的数值范围是否合适。比方说,如果使用了int类型,尽管数据本身没有超范围,但是在进行乘法计算时却可能会产生数值溢出。c++类型的数值范围速查表:Type Typical Bit Width Typical Range char 1byte -127 to 127 or 0 to ...原创 2019-07-17 14:49:53 · 789 阅读 · 1 评论 -
数据结构和算法笔记(1)数论相关
最近在刷编程题,发现了许多杂七杂八的知识点,稍微归类并记录下来方便后续查阅。本文的目录如下:1.组合数 2.快速幂 3.大数取模(乘法逆元和费马小定理) 4.菲波拉契数列1.组合数的求法组合数,为了方便也写作C(n, k),表示从n个不同元素中取出k (k≤n)个元素的所有组合的个数。我们知道存在公式C(n, k) = [n*(n-1)*(n-2)*.....原创 2019-07-10 17:44:44 · 493 阅读 · 0 评论 -
python列表的三种拷贝方式的性能分析
对于一个很大的列表,如果要对其进行复制,那么有三种方式可以选择。第一种是直接用for循环复制,第二、第三种则是使用python自带的copy和deepcopy方法。copy和deepcopy的区别在于,copy仅仅对被复制对象本身的值进行复制,而deepcopy则还会对被复制对象的所有子对象进行递归和拷贝。举例来说,如果一个字典里的value里包含了列表,那么在复制这个字典时,deepco...原创 2019-04-26 12:56:09 · 938 阅读 · 0 评论 -
PyTorch的可重复性问题 (如何使实验结果可复现)
由于在模型训练的过程中存在大量的随机操作,使得对于同一份代码,重复运行后得到的结果不一致。因此,为了得到可重复的实验结果,我们需要对随机数生成器设置一个固定的种子。许多博客都有介绍如何解决这个问题,但是很多都不够全面,往往不能保证结果精确一致。我经过许多调研和实验,总结了以下方法,记录下来。全部设置可以分为三部分: 1. CUDNNcudnn中对卷积操作进行了优化,牺牲了精度来...原创 2018-11-20 20:53:12 · 20925 阅读 · 26 评论 -
PyTorch踩过的坑(长期更新,转载请注明出处)
最近在知乎看到有人转载了这里的内容,提醒一下,欢迎转载,但是请注明出处,谢谢。1. nn.Module.cuda() 和 Tensor.cuda() 的作用效果差异无论是对于模型还是数据,cuda()函数都能实现从CPU到GPU的内存迁移,但是他们的作用效果有所不同。对于nn.Module:model = model.cuda()model.cuda()上面两句能...原创 2018-06-27 10:43:48 · 30599 阅读 · 11 评论 -
Linux Ubuntu 笔记(长期更新)
软链接、硬链接:前者相当于快捷方式,后者则相当于重新拷贝了一次。软链接命令:ln -s /home/sb/a /home/sb/b注意!删除软链接时,注意rm a 和 rm -r a/的区别,后者会将源文件夹也删除,血的教训。批删除文件:sudo find . -name 'xxx.tmp' | xargs sudo rm -rf支持通配符和正则表达式。...原创 2018-08-17 14:20:03 · 313 阅读 · 0 评论 -
网络调参时踩过的坑(长期更新)
1.学习率大小的设置一般情况下,当网络收敛到一定程度时,loss曲线的变化不明显,并出现上下的小幅度波动,这时候可以考虑调小学习率,帮助网络进一步收敛到最优值。如下图所示:但有些情况,网络看似收敛了,但实际上是到了某些平坦的曲面,离最优值还有一段距离。典型的loss curve如下图所示:可以观察到,曲线还在非常稳定地缓慢下降,并且没有上下波动。这时不要误以为网络已经收敛,而要...原创 2018-09-15 16:35:07 · 499 阅读 · 0 评论