- 博客(10)
- 收藏
- 关注
原创 SQL结果合计与分列
结果增加一行合计示例代码:select case when yf is not null then yf else '合计' end yf, sum(cast(bqbj1 as money)) bjhz, sum(cast(bqll1 as money)) lxhz, sum(cast(bqwh as money)) whhzfrom (select...
2019-08-29 10:10:12 560
原创 2019年8月28日——leetcode
716.特殊的二进制序列https://leetcode-cn.com/problems/special-binary-string/太难不解,无意义309. 最佳买卖股票时机含冷冻期https://leetcode-cn.com/problems/best-time-to-buy-and-sell-stock-with-cooldown/股票类,另出专题416.分割等和子集...
2019-08-28 23:52:38 587
原创 mysql时间类小结
时间类当前时间2019年8月28日获取当前日期select curdate()结果为获取当月最后一天select last_day(curdate())结果为获取当月第一天select date_add(curdate(),interval -day(curdate())+1 day)结果为获取当前月的天数select DATEDIFF(date_add(c...
2019-08-28 19:09:41 96
原创 2019年8月26日——leetcode
303. 区域和检索-数组不可变https://leetcode-cn.com/problems/range-sum-query-immutable/class NumArray: def __init__(self, nums: List[int]): self.sum_nums = [0] for ele in nums: ...
2019-08-26 22:46:05 213
原创 《百面机器学习》第一章——特征工程 笔记(简)
特征工程1. 特征归一化2. 类别型特征3. 高维组合特征的处理4.组合特征5. 文本表示模型6. Word2Vec7. 图像数据不足时的处理方法1. 特征归一化对数值类型的特征做归一化,最终将特征的取值都统一到大致相等的数值区间内。优点:可将所有特征消除量纲。避免结果倾向于数值差别较大的特征。常见的方法有:线性函数归一化零均值归一化适用于:逻辑回归、SVM、神经网络不...
2019-08-21 23:03:27 198
原创 2019年8月20日——leetcode
938. 二叉搜索树的范围和https://leetcode-cn.com/problems/range-sum-of-bst/class Solution(object): def rangeSumBST(self, root, L, R): def dfs(node): if node: if L <= ...
2019-08-20 22:28:21 278
原创 2019年8月19日——leetcode
894.所有可能的满二叉树https://leetcode-cn.com/problems/all-possible-full-binary-trees/# Definition for a binary tree node.# class TreeNode:# def __init__(self, x):# self.val = x# self...
2019-08-19 23:25:59 205
原创 面试常考算法(六)——数组系列
1.求众数找到众数,这个众数出现的次数大于n/2def majority_element(nums):# moore投票法 candidate = None count = 0 for num in nums: if count == 0: candidate = num if num == candidate:...
2019-08-09 00:50:43 183
原创 决策树(二)——决策树的剪枝(预剪枝和后剪枝)
决策树的剪枝什么是决策树的剪枝?为什么要剪枝?剪枝策略的分类预剪枝优缺点后剪枝后剪枝算法的分类优缺点奥卡姆剃刀定律预告andTODOReference什么是决策树的剪枝?对比日常生活中,环卫工人在大街上给生长茂密的树进行枝叶的修剪。在机器学习的决策树算法中,有对应的剪枝算法。将比较复杂的决策树,化简为较为简单的版本,并且不损失算法的性能。为什么要剪枝?剪枝是决策树算法防止过拟合的一种手段,...
2019-08-03 16:21:55 13465
原创 决策树(一)——决策树的生成ID3、C4.5、CART
决策树的生成基础概念什么是信息熵?Reference基础概念什么是信息熵?熵是度量样本集合纯度最常用的一种指标,代表一个系统中蕴含有多少信息量,信息量越大表明一个系统不确定性越大,就存在越多的可能性,即信息熵越大。假定当前样本集合D中第k类样本所占的比例为pk(k=1,2,...,∣y∣)p_k(k=1,2,...,|y|)pk(k=1,2,...,∣y∣),则D的信息熵为:Ent(D...
2019-08-03 13:29:45 546
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人