![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 82
BlackMan_阿伟
不积跬步无以至千里
展开
-
面试算法岗总结(持续更新.....)
寒假以来一直在投一些算法实习岗位,既然是算法,面大厂的话肯定少不了“手撕代码”的问题,怕自己忘掉,因此做已记录。目标是面试8个公司,现在已经面试了有三星、华为、快手,其中三星没有考代码题目。三星比较水,没有考代码问题。华为比较简单,就考察了一个斐波那契数列的问题。面试也是比较简单只考了一个算法题。class Solution: def fib(self, n: int) -> int: a, b = 0, 1 for _ in range原创 2021-01-28 17:32:44 · 694 阅读 · 4 评论 -
跨模态检索mAP的计算
1、跨模态检索输入qB:查询输入的汉明码,m*bit(64/128)rB:检索集的汉明码,n**bit(64/128)query_L:查询输入的标签,m*21(21个类别)retrieval_L:检索集的标签,n*212、跨模态检索mAP公式这个公式表示的就是如何计算Q个数据的检索,我们只需要计算每条数据的检索的Ap即可,也就是AveP(q)AveP中,其中分母表示有几个相关文档,rel(k)表示排名第k的文档是不是相关文档,P(k)表示排名第k个文档的精准率。3、跨模态检索代码实例原创 2021-06-22 16:17:19 · 995 阅读 · 1 评论 -
【机器学习】优化器之Adam
上一个章节说了SGD和动量版本的SGD,这个优化算法目前也是比较常用的一个优化算法,但是它还是存在一些问题的,因此后面又出了几个不同的算法,比如AdaGrad、RMSProp、Adam等算法。原创 2021-05-30 17:10:14 · 7235 阅读 · 0 评论 -
【机器学习】优化器之梯度下降算法
不管在机器学习还是深度学习中,我们都是通过对loss函数求偏导,来更新要学习的参数。一般用的比较多的就是梯度下降算法,当然了梯度下降算法有几个变种,刚好面试问到这个问题了,因此在此做个记录。1、什么是梯度?梯度的本意是一个向量,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。1)梯度是一个向量,即有方向有大小; 2)梯度的方向是最大方向导数的方向;(函数沿梯度方向函数有最大的变化率。) 3)梯度...原创 2021-05-26 11:10:27 · 572 阅读 · 1 评论 -
循环神经网络之Long Short-Term Memory(LSTM)
1、LSTM简介长短期记忆神经网络,是基于RNN改进的一种可以处理有序数据的循环神经网络,由于它设计的输入门、输出门、遗忘门三个门结构很好的解决了RNN中存在梯度消失的问题,可以说是RNN的改进版,后续还有GRU网络,GRU是针对LSMT的一种改进。2、LSTM的结构标准的RNN中的单层神经网络包含重复模块的四层神经网络与RNN相比发现每一个时间步都是非常的复杂,不仅仅是一个激活函数而已。接下来将中间这个部分拆解开了,庖丁解牛。细胞状态是LSTM中非常重要的一个单元状态,它.原创 2021-05-21 16:29:24 · 959 阅读 · 0 评论 -
循环神经网络之Recurrent Neural Network(RNN)
1、什么是RNN?全名,叫做Recurrent neural network,它可以处理有序列的或者有前后关系的句子,利用前面的信息预测后面的信息,这个是RNN和CNN最大的区别。CNN不考虑顺序依赖关系,RNN考虑顺序依赖关系。2、RNN的结构这个图就是一个循环神经网络,它循环其实是一个"假"循环,就是将每个时间步的输入拆开即可。首先说一下RNN的输入和学习的参数。输入:x_t:每个时间步的输入,s_t每个时间步的隐状态向量。输出:o_t每个时间步的输出接下来说说如何得到隐状态原创 2021-05-21 11:37:25 · 407 阅读 · 0 评论