机器学习
文章平均质量分 84
ML
脑子不好真君
我们是世间的尘埃,却是自己的英雄
展开
-
粗俗理解多层感知器
每一层神经元接收上一层或下一层的输入,对应前向传播和反向传播,每一个神经元代表一个激活函数。不是只要激活值为正数就激活,所以要设置偏执项。对应以下视频10:59处,原话为:"但有时 即使加权和大于0时 你也不想把神经元点亮,可能只有当和大于例如10的时候才让它激发,此时你就需要加上一个偏置值 保证不能随便激发"。原创 2024-05-02 19:02:30 · 775 阅读 · 0 评论 -
批量梯度下降、随机梯度下降、小批量梯度下降
由于要处理整个训练集,批量梯度下降需要较大的内存来存储全部数据,并且计算速度相对较慢。但它的优点是可以保证收敛到全局最优解,尤其在凸优化问题上表现良好。因为每次只看一个样本,随机梯度下降的计算速度很快,但对于非凸优化问题或存在噪声较多的数据集,可能会收敛到局部最优解而不是全局最优解。此外,由于随机性的存在,它可以帮助跳出局部最优解。小批量梯度下降综合了批量梯度下降的稳定性和随机梯度下降的计算效率,通常在实际应用中被广泛采用。小批量梯度下降是介于批量梯度下降和随机梯度下降之间的一种方法。原创 2024-02-15 22:54:47 · 478 阅读 · 0 评论 -
sklearn—roc_curve,roc_auc_score
通过设置不同的阈值,这些连续的分数会被转换为二元的分类结果(例如,正类或负类)。AUC的值介于0和1之间,一个完美的分类器的AUC为1,而一个完全随机的分类器的AUC为0.5。计算 ROC 曲线的各个点,并返回假正例率(False Positive Rate, FPR)、真正例率(True Positive Rate, TPR)以及用于生成这些率的决策阈值(Thresholds)。获取模型对每个样本的决策分数,这些分数随后被用于计算ROC曲线和AUC分数,以评估模型对于识别数字“5”的性能。原创 2024-02-08 18:21:23 · 963 阅读 · 0 评论 -
sklearn-cross_val_predict,confusion_matrix,precision_score, recall_score, f1_score
在这个例子中, X_train包含60000个手写数字图像的特征向量,而 y_train_5 是一个布尔数组,表示每个图像是否代表数字"5"(True表示是"5",False表示不是"5")。也就是预测结果是 5 实际情况也是 5,和预测结果是 5 实际情况也是 5 + 预测结果不是5 实际情况也不是5 的比例。,精确率是预测为正类(此例中为数字"5")的样本中,实际为正类的比例。也就是预测结果和实际情况为5 和 预测结果和实际情况为5 + 预测结果为5实际情况不是5之和 的比例。原创 2024-02-07 17:20:29 · 1005 阅读 · 0 评论 -
使用sklearn-SGDClassifier分类mnist数据集中‘5‘,并使用交叉验证评估模型
random_state参数是许多算法中用于控制随机数生成的种子值的一个常见参数。通过设置random_state为一个固定的整数值,可以确保代码的随机性部分是可重复的,这意味着每次运行代码时,如果输入数据不变,使用相同的random_state值将得到完全相同的结果。1. 下图报错也许是因为尝试使用shuffle_index数组来索引X_train[]DataFrame时,该索引数组中的值被误解。这个数组shuffle_index可以用于打乱数据集,确保数据的随机性。3. 以图片形式显示X[66666]原创 2024-02-06 21:21:50 · 729 阅读 · 0 评论 -
爬取58二手房并用SVR模型拟合
爬取数据仅用于练习和学习。本文运用二手房规格sepc(如3室2厅1卫)和二手房面积area预测二手房价格price,只是练习和学习,不代表任何实际意义。原创 2024-02-03 20:47:00 · 1241 阅读 · 1 评论 -
Hands-on Machine Learning with Scikit-Learn,Keras & TensorFlow
读书记录。原创 2023-11-27 15:15:08 · 1252 阅读 · 0 评论 -
多特征线性回归模型
Y:我们需要预测的真实值,也就是Happiness.Score(自由指数)X2:Freedom(我理解为一个国家的自由度,调查得到)θ1:X1的系数θ2:X2的系数ε:误差α:学习率θ0:偏置项。原创 2023-11-02 20:44:37 · 139 阅读 · 0 评论