- 博客(4)
- 收藏
- 关注
原创 Show, Attend and Tell: Neural Image Caption Generation with Visual Attention
动机: 以前的工作都是只关注图像一次,然后使用最后一层的全连接层得到图像最有用的信息。这样的缺点就是在描述图像的时候丢失了很多有用的信息。而且,产生每个词用到的图像信息都是相同的。因此,在这篇论文中考虑到使用一些低等级的信息来获取更多的描述信息。这个工作使用了attention的机制,在生成相应词的时候只关注一些显著的特征。而且attention机制可以使我们了解到每一步模型在关注哪些内容。
2017-04-12 08:55:32
3781
原创 svm&贝叶斯
首先,svm最简单的形式就是解决二类线性可分的问题。其优势就是可以将核函数很好的加进来,解决高维可分的问题。缺点是相比于lr,不能提供概率。并且没有lasso这种特征选择的好性质。svm考虑到每一个样本。 不论原问题是否是凸问题,对偶问题都是凹问题。 在推导的的过程中,因为原问题是凸问题,并且满足slater(不等式限制严格成立)条件,因此原问题和对偶问题满足强对偶性质。原问题的最优解
2017-02-20 10:09:55
2053
转载 二分查找
二分查找又称折半查找,优点是比较次数少,查找速度快,平均性能好;其缺点是要求待查表为有序表,且插入删除困难。因此,折半查找方法适用于不经常变动而查找频繁的有序列表 表现在专业知识广泛,知道该知识点是什么、什么时候用,为什么这么用 因此二分查找适用于那种一经建立就很少改动、而又经常需要查找的线性表(顺序存储结构) 还有哪些查找算法啊 一般面试的时候都会考察边界条件迭代
2017-02-19 21:43:46
303
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人