机器学习
文章平均质量分 71
淅淅同学
地球在转时,小猫在睡午觉,那我就记录一些学习心得叭
展开
-
TensorFlow详解4-RNN+LSTM(1)
动手实现RNN-LSTM循环神经网络(目标:预测句子中的单词;比如“我是中国人,我很爱我的祖国,我会说??”那么深度学习之后判断空出的地方填上中文)(本练习所用的数据集:PTB数据集)原创 2023-05-16 16:56:34 · 670 阅读 · 0 评论 -
TensorFlow详解3举个cnn卷积栗子
实现简单的cnn卷积神经网络(用到的是MNIST手写数字的数据库yann.lecun.com/exdb/mnist)原创 2023-04-15 17:20:22 · 454 阅读 · 0 评论 -
TensorFlow详解2原理
一般有两种编程模式。第一种是命令式编程–Torch,第二种是符号式编程–Tensorflow;tensorflow比torch有相对的一定的优化;命令式编程实际上是一种最常见的编程模式,因为易于理解而且基本没有优化,常见的有c,java,c++,python等;符号式编程设计了更多的嵌入的优化,运行速度有相对的运行的提升,也就是把c那种逻辑语句用一种计算流图来表示;原创 2023-04-09 10:48:12 · 479 阅读 · 0 评论 -
TensorFlow详解1
拟合的结果有三种欠拟合(样本不够或算法不精测试样本特性没有学到)、拟合完美(恰当的拟合测试数据,泛化能力强)、过拟合(太过完美的拟合测试数据泛化能力弱);1、降低数据量;2、正则化;3、Dropout(随机选择一部分神经网络进行训练)原创 2023-03-29 17:18:37 · 478 阅读 · 0 评论 -
机器学习12支持向量机SVM(处理非线性数据)
机器学习12支持向量机SVM(处理非线性数据)原创 2022-12-08 22:26:18 · 538 阅读 · 0 评论 -
机器学习11支持向量机SVM(处理线性数据)
使用支撑向量机的思想既可以解决分类问题也可以解决回归问题,先记录分类问题的解决,之后再回归;关于分类,决策边界有不唯一的问题,通常称为不适定问题。机器学习很重要的一个特性就是算法的泛化能力,也就是说求出决策边界之后,这个决策边界对于带预测的样本是否是一个好的决策边界,能否非常好的预测未知数据相应的分类结果,要知道对未知数据进行预测分类是机器算法的最终目的;故而关于决策边界的划分很重要;我们期望决策边界离蓝色红色都尽可能远,同时还要很好的分别两个类别相应的数据点;原创 2022-12-08 20:57:55 · 1129 阅读 · 0 评论 -
机器学习10线性回归法Linear Regression
1.解决回归问题;2.思想简单,实现容易;3.是许多强大的非线性模型的基础;4.结果具有很好的可解释性;5.蕴含机器学习中的很多重要思想;样本特征x只有一个称为简单的线性回归;不用绝对值是因为其不能保证在之后的算法中处处可导;因此我们选择了真值与预测值差之平方来表示偏差;推出来这个式子之后我们的目标就是使其尽可能地小;——典型的最小二乘法的问题目标,其实就是找到一个模型最大程度拟合我们的数据,在线性回归算法中这个模型就是一个线性回归方程,在这里,我们称右图目标函数为损失函数(los原创 2022-12-07 13:37:11 · 859 阅读 · 0 评论 -
Minianaconda安装jupyter notebook遇到的问题及解决
如何安装jupyter notebook;安装时报错;安装之后不能打开;Verifying transaction: failed+RemoveError原创 2022-12-07 09:19:56 · 1284 阅读 · 0 评论 -
机器学习9衡量线性回归法的指标,MSE,RMS,MAE
衡量线性回归法的指标之一,就是这么一个衡量标准,让误差和尽可能小,但是这里有一个问题就是m的大小会对衡量造成影响,因此此处引入MSE均方误差(Mean Squared Error)、RSE均方误差(Root Mean Squared Error)、平均绝对误差MAE(Mean Absolute Error)在解决分类问题的时候,我们评价分类的准确度1代表最好0代表最差,取值在0-1之间;MSE RMSE MAE没有这样的性质,我们无法判断算法准确度的优劣,这就是以上三种方法的局限性;RSqua原创 2022-12-05 09:24:40 · 1515 阅读 · 0 评论 -
机器学习8线性回归法Linear Regression
1.解决回归问题;2.思想简单,实现容易;3.是许多强大的非线性模型的基础;4.结果具有很好的可解释性;5.蕴含机器学习中的很多重要思想;样本特征x只有一个称为简单的线性回归;不用绝对值是因为其不能保证在之后的算法中处处可导;因此我们选择了真值与预测值差之平方来表示偏差;推出来这个式子之后我们的目标就是使其尽可能地小;——其实就是找到一个模型最大程度拟合我们的数据,在线性回归算法中这个模型就是一个线性回归方程,在这里,我们称下图目标函数为损失函数(loss function)也就是说度量出原创 2022-12-03 22:07:04 · 509 阅读 · 0 评论 -
机器学习7更多关于k近邻算法的思考
k近邻算法是一个解决分类问题的算法,天然可以解决多分类问题;不仅如此,k近邻算法还可以解决回归问题;原创 2022-12-02 17:26:31 · 582 阅读 · 0 评论 -
机器学习6scikit-learn中的scaler
测试数据集不能跟训练数据集归一化一样,应该把测试数据集与训练数据集归一化后的数据集进行相应的归一化,也就是(x_test-mean_train)/std_train,来得到均值归一化的结果;为了方便进行这一步操作,在scikit-learn中使用Scaler类进行封装。1.真实环境很有可能无法得到所有测试数据的均值和方差;我们需要保存训练数据集得到的均值和方差;2.对数据的归一化也是算法的一部分;原创 2022-12-02 16:58:17 · 991 阅读 · 0 评论 -
机器学习5数据归一化Feature Scaling
如图两个样本之间的距离,如果使用欧拉距离的话就是1-5的平法加上200-100的平方再开根号,在这种情况下显然就发现这个距离的大小被发现的时间所主导了;很显然我们就发现,如果不进行一些数据的基本处理的话直接进行距离的运算结果很有可能有偏差不能反映准确的结果,因此我们需要对数据进行归一化的处理;由于量纲不同导致了最终的距离其实主要衡量的是个发现的时间(起主导作用),因为肿瘤大小之间的差值太小了;这种做法适用于分布有明显的边界,受outlier影响较大;把所有的数据归一到均值为0方差均为1的分布中;原创 2022-12-01 22:28:37 · 416 阅读 · 0 评论 -
机器学习4超参数问题
在运行机器算法之前需要指定的参数,knn算法里面的k就是一个最为典型的超参数;此处与超参数相对应的就是模型参数:算法过程中学习的参数;KNN算法中没有模型参数,KNN算法中的k是典型的超参数调参调的参数也是超参数;通过领域知识,经验数值,实验搜索;这就是一个调参的过程,也就是面对一个算法去寻找最好的超参数的值(超参数问题之上改进一个bug)普通的k近邻算法,比如说k取三的时候,我们就找到当前离预测节点最近的三个点进行投票,由于可能存在的两蓝一红导致蓝胜却忽略了待测点离红的距离到底多近的情况,原创 2022-12-01 22:22:58 · 553 阅读 · 0 评论 -
机器学习3判断机器算法的性能
判断机器算法的性能(train test split)目的是帮助我们找到一个更好的模型/测试时数据,训练数据;原创 2022-12-01 22:01:55 · 733 阅读 · 0 评论 -
机器学习2普通knn算法
1.思想极度简单;2、应用数学知识少(近乎为零);3、效果好;4、可以解释机器算法使用过程中的很多细节问题;5、更完整的刻画机器学习应用的流程;原创 2022-12-01 21:53:17 · 335 阅读 · 0 评论 -
机器学习1综述
半监督学习:面对的数据集一部分有“标记”或者“答案”,另一部分数据没有;非参数学习:不对模型进行过多的假设,非参数学习不等于没有参数,只是不把问题当成一个建模,不把整个问题理解成学习一些参数,但是在学习过程中仍然是需要参数的参与;学习入门机器学习经典算法(KNN、线性回归、多项式回归、逻辑回归、模型正则化、PCA、SVM、决策树、随即森林、集成学习、模型选择、模型调整)与应用;增强学习:根据周围环境的情况(反馈),采取行动,根据采取行动的结果,学习行动方式。问题:新的数据有可能带来不正确或者不好的变化;原创 2022-11-27 22:06:23 · 529 阅读 · 0 评论