机器学习常用方法网址(第一批汇集)【转】

(1)2016-09-26,30分钟学会用scikit-learn的基本回归方法(线性、决策树、SVM、KNN)和集成方法(随机森林,Adaboost和GBRT)
https://blog.csdn.net/u010900574/article/details/52666291
     竟然KNN这个计算效能最差的算法效果最好

(2)2018-12-26,机器学习的几种方法(knn,逻辑回归,SVM,决策树,随机森林,极限随机树,集成学习,Adaboost,GBDT)
https://blog.csdn.net/fanzonghao/article/details/85260775

(3) 2018-02-13,Machine Learning: 十大机器学习算法
https://zhuanlan.zhihu.com/p/33794257

(4)2018-12-28,机器学习 – machine learning | ML
https://easyai.tech/ai-definition/machine-learning/
15种经典机器学习算法

 

算法训练方式
线性回归监督学习
逻辑回归监督学习
线性判别分析监督学习
决策树监督学习
朴素贝叶斯监督学习
KNN监督学习
学习向量量化监督学习
SVM监督学习
RF监督学习
AdaBoost监督学习
高斯混合模型非监督学习
限制波尔兹曼机非监督学习
K-means 聚类非监督学习
最大期望算法非监督学习

5)2017-06-01,深度学习笔记——基于传统机器学习算法(LR、SVM、GBDT、RandomForest)的句子对匹配方法
https://blog.csdn.net/mpk_no1/article/details/72836042
     从准确率上来看,随机森林的效果最好。时间上面,SVM耗时最长。
                     
(6)2016-08-04,8种常见机器学习算法比较
https://www.leiphone.com/news/201608/WosBbsYqyfwcDNa4.html
     通常情况下:【GBDT>=SVM>=RF>=Adaboost>=Other…】
                       
(7)2016-07-21,各分类方法应用场景 逻辑回归,支持向量机,随机森林,GBT,深度学习
https://www.quora.com/What-are-the-advantages-of-different-classification-algorithms
          
(8)2018-12-10,LR、SVM、RF、GBDT、XGBoost和LightGbm比较
https://www.cnblogs.com/x739400043/p/10098659.html
        
(9)2018-03-07,机器学习(三十六)——XGBoost, LightGBM, Parameter Server
https://antkillerfarm.github.io/ml/2018/03/07/Machine_Learning_36.html
        
(10)2019-07-29,深度学习(三十七)——CenterNet, Anchor-Free, NN Quantization
https://blog.csdn.net/antkillerfarm/article/details/97623139
                   
(11)2019-05-13,机器学习该怎么入门?
https://www.zhihu.com/question/20691338
          
(12)2018-12-28,机器学习、人工智能、深度学习是什么关系?
https://easyai.tech/ai-definition/machine-learning/
               
(13)2019-09-27,机器学习
https://www.zhihu.com/topic/19559450/hot
2019-09-26, ALBERT  A Lite BERT for Self-supervised Learning of Language Representations
https://arxiv.org/abs/1909.11942
          
(14)2016,机器学习 Machine-Learning
https://github.com/JustFollowUs/Machine-Learning
           
(15)Bradley Efron, Trevor Hastie, 2016-08, Computer Age Statistical Inference: Algorithms, Evidence and Data Science
https://web.stanford.edu/~hastie/CASI/
         
(16)2019-06-05,张钹院士:人工智能技术已进入第三代
https://blog.csdn.net/cf2SudS8x8F0v/article/details/90986936

2019-06-08,[学习资料搜集] 时间序列(time series)学习书籍
http://blog.sciencenet.cn/blog-107667-1183775.html

 

在数据分析里,由于“小样本数理统计学”没有充分发展起来,使得“依据大样本统计理论”的许多新方法,在小样本下没有表现出应有的优势。
  
例如:
(1)当“有效数据”的数量 > 10万时,这些新方法将是性能优良的;
(2)当“有效数据”的数量 < 200 时,特别是只有几十个或几个有效数据时,这些新方法的表现是不尽如人意的。
(3)数理统计学里的“置信区间”,是解释这些现象的一种理论基础。
  
“有效数据”,是相邻的两个数据之间携带足够的“独立性”信息的数据。
香农采样定理,是判断“有效数据”的基础方法之一。

 

 

                              
相关链接:
[1] 2016-09-01,支持向量机 Support Vector Machine 程序网址
http://blog.sciencenet.cn/blog-107667-1000087.html
[2] 2016-09-01,Crosswavelet and Wavelet Coherence 小波分析的程序网址
http://blog.sciencenet.cn/blog-107667-1000091.html
[3] 2019-07-27,威布尔分布 Weibull Distribution 资源网页搜集
http://blog.sciencenet.cn/blog-107667-1191323.html
[4] 2016-09-01,极限学习机 Extreme Learning Machines (ELM) 程序网址
http://blog.sciencenet.cn/blog-107667-1000094.html
[5] 2019-09-27,极值分布 Extreme Values Distribution 相关网页
http://blog.sciencenet.cn/blog-107667-1199726.html
[6] 2019-09-22,模糊数学:扎德“解模糊”、卡尔曼“模糊化”(博文网页汇集)
http://blog.sciencenet.cn/blog-107667-1199064.html
[7] 2018-08-26,估计 Largest Lyapunov exponent 的 matlab 程序搜集(网址)
http://blog.sciencenet.cn/blog-107667-1131215.html
[8] 2018-08-18,“大数据”时期,更渴望“小样本数理统计学” 
http://blog.sciencenet.cn/blog-107667-1129894.html
[9] 2017-07-11,布拉德利·埃弗龙(Bradley Efron):2005年美国国家科学奖章得主(统计学)
http://blog.sciencenet.cn/blog-107667-1065714.html

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值