在机器学习前特征的选择也是很重要的一部分,可以使用随机森林等相应方法进行数据的特征选择
Python机器学习实战:掌握这4个特征选择方法,提升模型预测性能 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/252863997特征选择也是需要不断迭代选择的数据。
机器学习中一些其他算法知识汇总,不断更新。
python 中的数据索引知识:
1.KNN算法中的两分类
2.KNN算法的原理详解
其中可能费解的lambda函数的意义(1条消息) Python3中`sorted()函数`与`lambda表达式`原理解析_NO FATE-CSDN博客https://blog.csdn.net/u011467553/article/details/104998858
另一个lambda后面的参数意义表达解释:
3.KNN的MATLAB和python 算法汇总
机器学习(一)——K-近邻(KNN)算法 - 1ang - 博客园 (cnblogs.com)https://www.cnblogs.com/ybjourney/p/4702562.html
4.SVM原理
SVM算法原理以及Python实现_a1013552415的博客-CSDN博客https://blog.csdn.net/a1013552415/article/details/103176447
5.贝叶斯算法分析
python 里的数据输出格式为:
python print(%用法和format用法)_wjqhit的专栏-CSDN博客https://blog.csdn.net/wjqhit/article/details/103095729
朴素的贝叶斯等分析,适用于bayes 的变形和分类,里面有sklearn的主要应用
常见问题 · sklearn 中文文档 (apachecn.org)https://sklearn.apachecn.org/docs/master/63.html
6.BP神经网络分类
BP神经网络的解释:
(2条消息) 机器学习 BP神经网络(Python实现)_BTboay-CSDN博客https://blog.csdn.net/qq_41398808/article/details/90904934
测试该BP网络的测试集可见链接:
便于理解Readlines(),Readlines之后输出的是List,每行为一个list里面的元素,故上文中的
for i in fp.readlines(): a = i.strip().split()
a是fp文件中的每一行组成的list,然后再对每行的数据进行一一对应成list的具体多个对象
剪切掉首尾的空格,同时以空格为切割数据的字符,然后形成list .
其中randint(n,m)产生的是一个n*m维的矩阵,矩阵的元素或者是0或者是1,是随机的。
关于BP网络里的具体数据类型转换解释:
神经网络的多分类问题:
机器学习作业---神经网络实现多类分类 - 山上有风景 - 博客园 (cnblogs.com)https://www.cnblogs.com/ssyfj/p/12846147.htmlBP神经网络的多特征多分类
使用Softmax 函数进行分类:
Python关于鸢尾花的文章链接:
python strip() 函数和 split() 函数的详解及实例:
iloc函数的使用:python iloc用法-Python学习网https://www.py.cn/faq/python/18973.html
分类过程中的鸢尾花的原始数据:使用
(2条消息) iris原始数据.txt-讲义文档类资源-CSDN文库https://download.csdn.net/download/soga235/32947634
使用Sk-learn 方法数据分类:该链接值得我深入学习和思考