![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
sinat_18131557
这个作者很懒,什么都没留下…
展开
-
Python语音基础操作--6.3ADPCM编码
自适应差分脉冲编码调制(Adaptive Differential Pulse Code Modulation, ADPCM)结合了ADM的差分信号与PCM的二进制编码的方法,采用预测编码来压缩数据量。体现在使用预测技术减少量化编码器输入信号的冗余度,将差值信号编码以提高效率,降低编码信号速率,广泛应用与语音和图像信号的数字化。自适应量化在语音信号量化器中,为了适应信号的动态范围,需要把量化阶距选的足够大,另外为了减少量化噪声,有希望减小量化阶距。语音信号在很宽的范围内幅值变化,为了适应这样的变化,就是原创 2020-05-30 14:11:14 · 2143 阅读 · 0 评论 -
keras中Conv2D,SeparableConv2D,DepthwiseConv2D实现与参数数量区别
Conv2D对于一个普通卷积来说,通常卷积核的大小,上一层的channel与本层的channel对应了参数的数量。使用了bias的话,普通卷积(Conv2d)的参数为:#params=(filter_size×filter_size×channellast+1)×channelthis\#params=(filter\_size\times filter\_size\times channel_{last}+1)\times channel_{this}#params=(filter_size×filt原创 2020-05-18 18:41:09 · 2804 阅读 · 2 评论 -
Python与机器学习实战——SVM(1)
SVM感知器能将线性可分数据集准确分割开,但是从损失函数可以看出,只是分割开了,但是没有一个最优解,比如:这样虽然两条直线都将数据集分开了,但是如果出现了一个新的数据点,很有可能这个数据点的分割结果是错误的。比如这样:那么就需要绿色的这个“超平面”作为分类输出才行。这个最有“超平面”就是支持向量机SVM的分类思想。线性SVM在感知器中有描述到样本点(xi,yi)(x_i,y_i)(x...原创 2020-02-11 19:29:02 · 311 阅读 · 0 评论 -
Python与机器学习实战——感知器
感知器感知器只能处理线性可分的问题,所谓线性可分问题就是:对于一个数据集D={(x1,y1),...,(xn,yn)}D=\{(x_1,y_1),...,(x_n,y_n)\}D={(x1,y1),...,(xn,yn)},其中xi∈X⊆Rn,yi∈{−1,+1}x_i\in \bold{X}\subseteq\mathbb{R^n} ,y_i\in\{-1,+1\}xi∈X⊆Rn,y...原创 2020-02-10 19:37:33 · 232 阅读 · 0 评论 -
Python与机器学习——集成学习
集成学习集成学习的思想在于:通过适当的方式集成多个“个体模型”,得到最终的模型,希望最终模型优于个体模型。个体模型G1集成模块个体模型G2个体模型Gn最终模型所以问题变成了如何选择,生成个体模型,以及如何进行集成。有不同的设计思路:将不同的个体模型进行集成;将类型相同但参数不同的模型进行集成;将类型相同但训练集不同的模型进行集成。第一种方式的应用并不十分广泛,第二种方式又被称为并...原创 2020-02-05 18:10:21 · 266 阅读 · 0 评论 -
Python与机器学习——决策树
决策树理论基础决策树是建立在信息论的基础上的,决策树的生成就是让数据的"不确定性"减少越多越好,意味着划分能获得越多的信息。信息的不确定性可以用信息熵和基尼指数来描述。信息熵信息熵的定义其实也比较简单:H(y)=∑k=1Kpklogpk(信息熵公式)H(y)=\sum_{k=1}^Kp_k\log p_k\tag{信息熵公式}H(y)=k=1∑Kpklogpk(信息熵公式)对于具...原创 2020-02-01 21:26:30 · 246 阅读 · 0 评论 -
Python与机器学习——贝叶斯分类器
贝叶斯分类器内容与代码来源自:Python与机器学习实战(何宇健)作者git repo我的git repo理论贝叶斯决策理论和传统统计学理论有区别,最大的区别在于对于概率的定义:统计学的频率强调“自然属性”,认为应该使用事件在重复试验中发生的频率最为其发生的概率的估计;贝叶斯决策理论的频率不强调客观随机性,认为仅仅是观察者不知道时间发生的结果。对于“知情者”来说,该事件其实不具备随机...原创 2020-01-30 11:49:48 · 450 阅读 · 0 评论