![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习笔记
文章平均质量分 67
随遇而安_小强
这个作者很懒,什么都没留下…
展开
-
Pandas学习笔记
import pandas as pdimport datetimeimport numpy as np# rank函数S = pd.Series([3,5,1,9])S.rank(method='average')#rank函数返回S中每个元素在所有元素中的排名,按照从小到大顺序。#3在所有元素中排名第二,9排第四0 2.01 3....原创 2018-06-17 21:16:21 · 192 阅读 · 0 评论 -
机器学习库sklearn中集成学习模型参数释义
'''scikit-learn基于AdaBoosts算法提供了两个模型:1.AdaBoostClassifier用于解决分类问题2.AdaBoostRegressor用于解决回归问题'''from sklearn.ensemble import AdaBoostClassifierAdaBoostClassifier(base_estimator=None, ...原创 2018-07-16 13:06:32 · 4332 阅读 · 0 评论 -
详解熵、最大熵、联合熵和条件熵、相对熵以及互信息之间的关系
信息量的定义某事件发生的概率小,则该事件的信息量大。 定义随机变量XXX的概率分布为P(X)P(X)P\left( X \right),XXX的信息量为:h(X)=−log2P(X)h(X)=−log2P(X)h\left( X \right) = - {\log _2}P\left( X \right).熵对随机事件按的信息量求期望,得到随机变量XXX的熵: H(X)=−∑...原创 2018-07-03 19:06:15 · 11274 阅读 · 2 评论 -
机器学习sklearn中决策树模型参数释义
'''scikit-learn中有两类决策树,它们均采用优化的CART决策树算法。'''from sklearn.tree import DecisionTreeRegressor'''回归决策树'''DecisionTreeRegressor(criterion="mse", splitter="best", ...原创 2018-07-07 19:26:56 · 26102 阅读 · 4 评论 -
凸集、凸函数及其充分必要条件
凸集的定义:设集合D⊂RnD⊂RnD \subset {R^n},若对于任意点x,y∈Dx,y∈Dx,y \in D及实数α∈[0,1]α∈[0,1]\alpha \in \left[ {0,1} \right],都有αx+(1−α)y∈Dαx+(1−α)y∈D\alpha x + \left( {1 - \alpha } \right)y \in D 则称集合DDD为凸集。 由凸集的定...原创 2018-07-22 14:37:02 · 16296 阅读 · 1 评论 -
数据结构Python实现之队列,双端队列以及栈
队列:class Node(object): def __init__(self,value=None,next=None): self.value = value self.next = nextclass Linked_List(object): def __init__(self,maxsize=None): sel...原创 2018-07-31 17:09:08 · 300 阅读 · 2 评论 -
数据结构Python实现之哈希表,字典以及集合
哈希表:class Array(object):#定义一个数组,用于实现哈希表 def __init__(self,size=32,init=None): self._size = size self._items = [init] * size def __getitem__(self, index): return sel...翻译 2018-07-31 17:26:44 · 6425 阅读 · 0 评论 -
PyMC3中常见连续概率分布
连续分布1.均匀分布class pymc3.distributions.continuous.Uniform(lower = 0,upper = 1,* args,** kwargs )均匀分布的概率密度函数为:import numpy as npimport matplotlib.pyplot as pltplt.style.use('seaborn-darkgrid...翻译 2018-08-07 15:11:57 · 4024 阅读 · 0 评论