- 博客(8)
- 收藏
- 关注
转载 [LeetCode] Lowest Common Ancestor of a Binary Tree 二叉树的最小共同父节点
[LeetCode] Lowest Common Ancestor of a Binary Tree 二叉树的最小共同父节点 Given a binary tree, find the lowest common ancestor (LCA) of two given nodes in the tree.According to the definition o
2017-09-28 09:48:38 239
转载 基本数据结构――堆的基本概念及其操作
基本数据结构――堆的基本概念及其操作 在我刚听到堆这个名词的时候,我认为它是一堆东西的集合... 但其实吧它是利用完全二叉树的结构来维护一组数据,然后进行相关操作,一般的操作进行一次的时间复杂度在 O(1)~O(logn)之间。 可谓是相当的引领时尚潮流啊(我不信学信息学的你看到log和1的时间复杂度不会激动一下下)!。
2017-09-24 19:21:57 972
原创 leetcode_链表总结
206.Reverse Linked ListReversea singly linked list链表反向;思路:定义一个个新链表的临时节点,依次遍历链表的每个节点,每遍历一个节点就逆置一个节点。
2017-09-24 17:40:41 349
原创 乔布斯斯坦福大学演讲英文原文
乔布斯斯坦福大学演讲英文原文:Stanford Report, June 14, 2005‘You’ve got to find what you love,’ Jobs saysThis is the text of the Commencement address by Steve Jobs, CEO of Apple Computer and of Pixar Anima
2017-09-24 15:13:19 15529 1
原创 手写softmax(numpy.stack hstack vstack)
scores = [3.0, 1.0, 0.2]import numpy as npdef softmax(x): return np.exp(x) / np.sum(np.exp(x), axis=0)print(softmax(scores))import matplotlib.pyplot as pltx = np.ara
2017-09-23 18:04:10 574
原创 Batchnorm
1.原理BN就是对于给定的输入做一个减均值除方差的归一化。训练过程中对每个Batch做均值和方差归一化处理,预测过程中通过训练数据进行估算。BN的目的是使得下一层的神经网络(通常是非线性的激活函数,如ReLU,sigmoid)的输入在合理的范围内(接近与均值为0方差为1的正态分布),和数据预处理&合理初始化权重矩阵的目的相同。根据反向传播公式,链式求导的公式,方差过小,则数据接近于0,
2017-09-21 21:15:30 849
转载 NLP:language model(n-gram/Word2Vec/Glove)
首先,大概讲一下自然语言处理的背景。互联网上充斥着大规模、多样化、非结构化的自然语言描述的文本,如何较好的理解这些文本,服务于实际业务系统,如搜索引擎、在线广告、推荐系统、问答系统等, 给我们提出了挑战。例如在效果广告系统中,需要将 Query(User or Page) 和广告 Ad 投影到相同的特征语义空间做精准匹配,如果 Query 是用户,需要基于用户历史数据离线做用户行为分析,如果 Qu
2017-09-21 08:53:30 2412
转载 sklearn.metrics中的评估方法(accuracy_score,recall_score,roc_curve,roc_auc_score,confusion_matrix)
accuracy_score分类准确率分数是指所有分类正确的百分比。分类准确率这一衡量分类器的标准比较容易理解,但是它不能告诉你响应值的潜在分布,并且它也不能告诉你分类器犯错的类型。形式:sklearn.metrics.accuracy_score(y_true, y_pred, normalize=True, sample_weight=None)normaliz
2017-09-20 14:18:13 45469 3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人