![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CBIR
CS_myc
我一直认为要想很好地掌握一项知识,最好的方法就是能用自己的语言为别人讲明白。所以写博客对于我来说,除了起到一个记录的作用外,更多的也是督促自己去更深刻,牢固地理解知识。
但是自己能力有限,可能大部分的时候只能转载别人的文章,拾人牙慧。但是即使是转载,我尽量不会原封不动地搬运,而是希望能够以自己的语言再组织一遍,并加上一些自己的见解。如果在这个过程中能多多少少地帮助到他人,那就更好了。
展开
-
Triplet-Loss in FaceNet
记录一篇总结Triplet-loss 总结得非常好的博客,写得很好理解,就不再自己总结了: Triplet-Loss原理及其实现、应用转载 2020-06-01 11:14:18 · 202 阅读 · 0 评论 -
如何为不固定输入图片尺寸的CNN-based image retrieval network生成固定长度的feature embedding
今天在看GeM pooling (generalized mean pooling)的代码的时候发现他们用的测试集(paris6k和oxford5k)的尺寸是不固定的。作为image retrieval net小白的我就很好奇他们是如何保证在用固定kernel size的CNN的情况下还能最终生成一样长度的feature embedding vector的。我之前知道spatial pyramid pooling可以做这件事情,也知道貌似不固定图片尺寸的训练会让模型不容易over-fitting且更容易收敛原创 2020-12-30 17:33:04 · 388 阅读 · 0 评论