机器学习零散知识点总结
文章平均质量分 94
不追求全面,只讲究细节,记录每一个零碎的小知识点。
日拱一两卒
日拱一卒无有尽、功不唐捐终入海
展开
-
用于 Python 降维的主成分分析
用主成分分析来完成原创 2022-12-03 16:26:33 · 1013 阅读 · 0 评论 -
用于Python降维的线性判别分析
降维的线性判别分析原创 2022-12-02 19:44:42 · 1101 阅读 · 0 评论 -
奇异值分解(SVD)和np.linalg.svd()函数用法
奇异值分解是一种十分重要但又难以理解的矩阵处理技术,在机器学习中是最重要的分解没有之一的存在。那么,奇异值分解到底是在干什么呢?原创 2022-12-01 20:33:36 · 8335 阅读 · 1 评论 -
Keras中reset_states对stateful的影响探究
结合reset_states进一步理解stateful原创 2022-11-23 21:02:09 · 1332 阅读 · 0 评论 -
Keras中stateful的正确理解和使用方法
Keras中stateful的正确理解和使用方法原创 2022-11-10 10:52:52 · 1015 阅读 · 1 评论 -
标准化、最值归一化、均值归一化应用场景的进阶思考
对均值归一化,最值归一化,标准化进一步的思考总结,什么场景下适合使用对应的方法?原创 2022-06-17 16:06:02 · 7067 阅读 · 1 评论 -
Keras中一些重要模型或函数的参数使用说明(持续更新)
在网络上汇总和整理Keras接口中各种重要函数的参数使用说明,方便使用的时候查阅,持续更新原创 2022-06-02 10:53:24 · 715 阅读 · 0 评论 -
Keras中如何设置学习率和优化器以及两者之间的关系
Keras对优化器和学习率做了很好的封装,以至于很多人搞不清楚怎么设置学习率,怎么使用优化器,两者到底有什么区别。原创 2022-06-01 08:00:00 · 9345 阅读 · 1 评论 -
机器学习11种优化器推导过程详解(SGD,BGD,MBGD,Momentum,NAG,Adagrad,Adadelta,RMSprop,Adam,Nadma,Adamx)
网络上优化器文章基本都是从李沐的《动手学深度学习》和邱锡鹏的《神经网络与深度学习》搬运下来的,没有细节,错误频出,这里从新进行完整的修正补充和总结原创 2022-05-28 01:55:11 · 3673 阅读 · 0 评论 -
Keras中用验证集进行模型验证的方法_(validation_data,validation_split,model.evaluate)
目标在训练完网络模型后,我们想要知道模型对数据的真实准确度,而训练数据存在则数据信息泄露的问题,所以我们现在需要一个独立的数据验证集来对模型泛化能力进行验证。Keras中常用于模型评估的方法参数包含:validation_split、validation_data、model.evaluate(...)一、自动切分验证集用于验证在Keras中,可以从数据集中切分出一部分作为验证集,并且在每次迭代(epoch)时在验证集中评估模型的性能.具体地,调用model.fit()训练模型时,可通过va原创 2022-03-10 14:05:38 · 19036 阅读 · 23 评论 -
Keras中Dropout的用法详解
dropout用法全面介绍原创 2022-03-09 01:20:02 · 16498 阅读 · 0 评论 -
keras中EarlyStopping(早停止)的用法和原理详解
查阅资料,总结了keras中EarlyStopping的用法和代码段原创 2022-03-04 20:45:00 · 12397 阅读 · 10 评论 -
Keras 中 L1正则化与L2正则化的代码用法和原理细致总结
详细整合讲解L1,L2正则化原理的代码用法原创 2022-03-01 15:55:41 · 9793 阅读 · 0 评论 -
Keras 中 LSTM 的return_sequences和return_states之间的区别
keras中return_sequences和return_state参数的使用原创 2022-02-23 14:47:49 · 1901 阅读 · 3 评论