机器学习
bethsuki
这个作者很懒,什么都没留下…
展开
-
python 把几个DataFrame合并成一个DataFrame——merge,append,join,conca
参考:https://blog.csdn.net/milton2017/article/details/54406482/1、mergepd.merge(left, right, how='inner', on=None, left_on=None, right_on=None, left_index=False, right_index=False, sort=Tru...转载 2020-04-16 22:25:37 · 2614 阅读 · 0 评论 -
Python:loc和iloc的区别
转载自:https://blog.csdn.net/sushangchun/article/details/83514803loc和iloc的区别pandas以类似字典的方式来获取某一列的值,比如df[‘A’],这会得到df的A列。如果我们对某一行感兴趣呢?这个时候有两种方法,一种是iloc方法,另一种方法是loc方法。loc是指location的意思,iloc中的i是指integer。...转载 2020-04-15 23:03:20 · 727 阅读 · 0 评论 -
随机森林原理及实现
一、原理https://blog.csdn.net/cg896406166/article/details/83796557,解释的非常生动!1.步骤对含有N个样本,M个特征的数据集操作。(1).首先采样T次,每次从N个样本里有放回的选取n个样本(n=),从得到T个含有均n个样本的数据集。再有放回的随机选取这些样本的k个特征。这就是我们第一次得到的森林:有T棵树,每棵树有k个节点(...原创 2020-04-12 18:37:05 · 1862 阅读 · 0 评论 -
天池之幸福感新学知识记录
1.创建元素相同的列表:含一个值的列表*n,得到n维含该值的列表代码:self.input_cells = [1.0] * self.input_n结果:[1.0, 1.0, 1.0]原创 2020-04-08 23:03:37 · 251 阅读 · 0 评论 -
吴恩达MachineLearning-Week6
目录十、应用机器学习的建议(Advice for Applying Machine Learning)10.1 决定下一步做什么 10.2 评估一个假设 10.3 模型选择和交叉验证集 10.4 诊断偏差和方差 10.5 正则化和偏差/方差 10.6 学习曲线 10.7 决定下一步做什么十一、机器学习系统的设计(Machine Learning System Design)...原创 2020-03-16 08:51:16 · 243 阅读 · 0 评论 -
吴恩达MachineLearning-Week5
目录9 神经网络: 学习(Neural Networks: Learning)9.1 代价函数(Cost Function) 9.2 反向传播算法(Backpropagation Algorithm) 9.3 直观理解反向传播(Backpropagation Intuition) 9.4 实现注意点: 参数展开(Implementation Note: Unrolling Param...转载 2020-03-12 10:26:22 · 215 阅读 · 0 评论 -
吴恩达MachineLearning-Week4
原笔记网址:https://scruel.gitee.io/ml-andrewng-notes/week1.html红色字体为自己的标注、绿色字体为自己的感想。目录8 神经网络:表达(Neural Networks: Representation)8.1 非线性假设(Non-linear Hypotheses) 8.2 神经网络和大脑(Neurons and the Brain)...原创 2020-02-29 17:01:40 · 338 阅读 · 0 评论 -
吴恩达MachineLearning-编码过程中错误记录
Week2!! Submission failed: 错误使用 /矩阵维度必须一致。1.错误:>> submit未定义函数或变量 'submit'。解决:应将cd精确定义到文件所在位置,而非其母文件夹是这个,而非这个2.错误:!! Submission failed: 错误使用 /矩阵维度必须一致。解决:数字除矩阵,需要点除!乘法可以直接乘以矩...原创 2020-02-28 13:15:02 · 295 阅读 · 1 评论 -
吴恩达MachineLearning-Week3
原笔记网址:https://scruel.gitee.io/ml-andrewng-notes/week1.html红色字体为自己的标注、绿色字体为自己的感想。目录6 逻辑回归(Logistic Regression)6.1 分类(Classification) 6.2 假设函数表示(Hypothesis Representation) 6.3 决策边界(Decision Bo...原创 2020-02-24 18:06:18 · 345 阅读 · 0 评论 -
吴恩达MachineLearning-Week2
1.多元线性回归(Multivariate Linear Regression)1.1 多特征(Multiple Features) 1.2 多变量梯度下降(Gradient Descent for Multiple Variables) 1.3 梯度下降实践1-特征值缩放(Gradient Descent in Practice I - Feature Scaling) 1.4 ...原创 2020-02-17 21:16:19 · 292 阅读 · 0 评论 -
吴恩达MachineLearning-week1
原笔记网址:https://scruel.gitee.io/ml-andrewng-notes/week1.html红色字体为自己的标注、绿色字体为自己的感想。目录1.引言(Introduction)1.1 Welcome 1.2 什么是机器学习(What is Machine Learning) 1.3 监督学习(Supervised Learning) 1.4 无监督学习...原创 2020-02-14 21:04:47 · 349 阅读 · 0 评论