![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记
文章平均质量分 64
AI强仔
人工智能爱好者、机器人爱好者
展开
-
语音唤醒工具:WeKWS
WeKWS是一个可以投入生产使用、容易构建、易应用的端到端(end-to-end (E2E) )关键词识别工具(Keyword spotting )。Keyword spotting(KWS)指从连续语音流中识别预定义的关键词。唤醒词识别(wake-up word(WuW))是KWS的一种。翻译 2023-04-29 11:31:48 · 1812 阅读 · 0 评论 -
arduino与MP3模块播放声音
arduino与MP3模块播放声音原创 2022-10-22 11:35:22 · 4817 阅读 · 6 评论 -
系统监控分类java
1.Logging 用于记录离散的事件。例如,应用程序的调试信息或错误信息。它是我们诊断问题的依据。比如我们说的ELK就是基于Logging。2.Metrics 用于记录可聚合的数据。例如,1、队列的当前深度可被定义为一个度量值,在元素入队或出队时被更新;HTTP 请求个数可被定义为一个计数器,新请求到来时进行累。2、列如获取当前CPU或者内存的值。 prometheus专注于Metrics领域。3.Tracing - 用于记录请求范围内的信息。例如,一次远程方法调用的执行过程和耗时。它是我们排查系原创 2021-11-09 17:17:50 · 1235 阅读 · 0 评论 -
Hinton 论文系列《A fast learning algorithm for deep belief nets》
1 简介本文根据2006年Hinton等人写的《A fast learning algorithm for deep belief nets》翻译总结。学习一个紧密连接、有向的、有很多隐藏层的信念网络是很困难的,因为在给定一个数据向量下,很难推断隐藏活动下的条件分布。本文中,我们显示了是有可能学习一个深度、紧密相连的信念网络,一次学习一层。进行如此学习方式的一种是假定当学习低层时,较高的层不存在;但这与简单的因子化相似(替换难处理的后验分布)不相容。为了使这些相似起作用,我们需要真的后验尽可能逼近因子翻译 2021-08-30 23:12:09 · 1791 阅读 · 0 评论 -
Hinton论文系列-Reducing the dimensionality of data with neural networks
1 简介本文根据2006年. G.E. Hinton 和R. R. Salakhutdinov的《Reducing the dimensionality of data with neural networks》翻译总结。高维数据可以通过一个多层神经网络把它转换成一个低维数据,而且还能反向用低维数据重建高维数据。我们把这个神经网络叫做自动编码网络或自编码器(autoencoder)。梯度下降法可用来微调这个自动编码器的权值,但是只有在初始化权值较好时才能得到最优解,不然就容易陷入局部最优解。本文提供了一翻译 2021-08-23 22:07:54 · 2359 阅读 · 0 评论 -
python写入与读取txt、tsv、csv、excel等文件
1.1读取txtvocabs=[]with open(“D:/vocab_init.txt”, “r”) as f:for line in f.readlines():line = line.strip(’\n’) #去掉列表中每一个元素的换行符#print(line)vocabs.append(line)1.2 写入txtfinal_vocabs = [‘1’,‘2’]file = open(‘D:/vocab.txt’, ‘w’)for i in range(len(final_v原创 2021-04-03 15:20:15 · 2137 阅读 · 0 评论 -
SHAP论文--统一的解释模型预测的方法
##1. 简介SHAP (SHapley Additive exPlanations).。本文主要是根据《A Unified Approach to Interpreting Model Predictions》翻译总结。模型的准确率和可解释性同等重要,但是现在模型越复杂准确率越高,但其可解释下越差,面临着准确率和可解释性的矛盾。本文我们提出了一个新颖的统一的方法(SHAP)来解释模型的预测。1)我们定义了additive feature attribution方法,统一了以前的6种方法,包括LI翻译 2021-01-14 15:33:57 · 5392 阅读 · 0 评论 -
Factorization Machines 因子分解机FM
1 简介本文是根据2010年 Steffen Rendle的《Factorization Machines》翻译总结的。Factorization Machines简称FM,因子分解机。FM结合了因子分解的优点和支持向量机SVM的优点。FM用因子参数构建了所有变量间的交互。这些交互通常是存在很大的稀疏性,FM的优点就是处理这些稀疏性。而且是线性的计算时间。可以直接进行优化计算的。另外,像其他因子模型,比如matrix factorization、parallel factor analysis,以及翻译 2020-12-05 13:34:02 · 696 阅读 · 0 评论 -
XGBoost vs lightGBM vs CatBoost
1 简介本文比较了XGBoost、LightGBM 、 Catboost。本文基于2019年1月《Benchmarking and Optimization of Gradient Boosting Decision Tree Algorithms》翻译总结。GBDT算法的基准和优化。总体结论是这三个算法,没有一个是具有领先地位的,或者说都在伯仲之间。XGBoost在GPU上可以更快的训练,在多分类任务上准确率也高,但在部分大数据任务上会因使用内存太大,不能运行。而lightGBM虽然运行慢,但在单分翻译 2020-11-29 16:58:33 · 722 阅读 · 0 评论 -
CatBoost论文笔记
1 简介CatBoost ( “Categorical Boosting”)。2017年就有了,不过本文是根据2019年的《CatBoost: unbiased boosting with categorical features》翻译总结的。文中主要是将CatBoost与XGBoost和lightGBM比较。运行时间比XGBoost快,和lightGBM差不多,但准确率CatBoost比XGBoost和lightGBM高。我自己在实验中,感觉没那么容易获得更高的准确率,还得参数调优吧。CatBoo翻译 2020-11-28 23:29:02 · 821 阅读 · 0 评论 -
GBDT 残差与负梯度
如下图,残差是梯度的相反数,即残差是负梯度。原创 2020-10-26 21:34:59 · 484 阅读 · 0 评论 -
基尼gini系数-决策树
CART树采用基尼系数分割,而不是信息增益。原创 2020-10-25 12:11:01 · 1747 阅读 · 0 评论 -
回归树
原创 2020-10-25 12:09:15 · 110 阅读 · 0 评论 -
XGBoost论文笔记
1.简介XGBoost在2015年到2017年间kaggle比赛中大放异彩。本文依据2016年论文《XGBoost: A Scalable Tree Boosting System》翻译总结。处理的问题包括:库存销售预测、高能量物理事件分类、web text 分类、客户行为预测、运动检测、广告点击率预测、产品分类、风险预测等。XGBoost成功的最主要因素是其可扩展性。比大部分算法快10倍,可以扩展支持几十亿的样本数据。XGBoost支持hadoop、Flink、Spark。阿里天池云平台也集成了X翻译 2020-10-21 22:57:27 · 343 阅读 · 0 评论 -
Python2和Python3的区别
默认编码Python2 的默认编码是 assciiPython 3 默认采用了 UTF-8 作为默认编码缩进Python3 使用更加严格的缩进。Python2 的缩进机制中,1 个 tab 和 8 个 space 是等价的,所以在缩进中可以同时允许 tab 和 space 在代码中共存。这种等价机制会导致部分 IDE 使用存在问题。Python3 中 1 个 tab 只能找另外一个 t...原创 2020-04-04 22:31:04 · 151 阅读 · 0 评论 -
Chineseocr:YOLO3+CRNN (基于windows+pytorch安装试用)
1.4.1 介绍Git地址:https://github.com/chineseocr/chineseocr。目前支持darknet、keras、tensorflow、pytorch。但将来会主要支持darknet。Yolo3开始就是用darknet编写的。基于yolo3 与crnn 实现中文自然场景文字检测及识别。我试的身份证识别效果很好。YOLO3:目标检测。CRNN: EndToEn...原创 2020-03-27 23:33:21 · 3802 阅读 · 21 评论