机器学习
pikapikay
这个作者很懒,什么都没留下…
展开
-
机器学习 吴恩达 笔记 (1)
多元线性回归 主要是对于线性回归的深化 针对每一次迭代中的第j的参数,将前一次的该参数值减去步长a*代价函数对于此参数的导数,注意多参数时需要先完成本次迭代即更新完n个参数之后才能进行下一次更新,不能将刚更新的参数带入到后更新的参数更新过程中去。 坐标系理解就是在此参数的维度上不断靠近最低点,每次都减去步长乘斜率,而随着迭代,斜率会越来越小最终降为0,到达此参数维度上的最低点,而...原创 2018-09-14 10:10:31 · 151 阅读 · 0 评论 -
机器学习实战-简单决策树编写
#!/user/bin/env python # !-*-coding:utf-8 -*- # !Time :2018/9/28 4:12 PM # !Author : hyCong # !@File : .py from math import log import operator import treePlotter # 计算熵 def calcShannonEnt(dataSet): ...原创 2018-10-01 10:19:05 · 168 阅读 · 0 评论 -
梯度下降技巧2
一. 对步长的选取需要采取一定的策略 二. 多项式回归时对于特征的选择,可以采用复合的方式,尽可能的是假设函数与数据拟合,并且注意xi在使用不同的函数复合之后其范围的变化,如果各个参数的范围相差较大需要使用规格化缩放。 三. 对于多元线性回归中梯度下降和正规方程法(最小二乘法)的优缺点比较 四. 当使用最小二乘法的时候可能会出现xtx不可逆的情况,若不可逆,则会出现复...原创 2018-09-21 17:52:30 · 367 阅读 · 0 评论 -
bp神经网络python实现(关于公式的推导之后给出)
#!/user/bin/env python # !-*-coding:utf-8 -*- # !Time :2018/10/7 7:56 PM # !Author : hyCong # !@File : .py import sys reload(sys) sys.setdefaultencoding('utf-8') from sklearn.datasets import load_di...原创 2018-10-08 19:50:30 · 309 阅读 · 1 评论