![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
cs229(吴恩达机器学习)
程序大猩猩
这个作者很懒,什么都没留下…
展开
-
1.1 线性回归中的两种梯度下降算法(cs229)及其Python实现(纯列表)
原创 2019-01-20 16:42:35 · 289 阅读 · 0 评论 -
4.1 广义线性模型之Possion回归模型的SGA实现(与statsmodels中的Possion对比)
在2.3节中,我们从广义线性模型推导出了Possion分布模型,这个模型在sklearn.linear_model中并没有实现,由此,我认为有实现的必要。在Github上浏览的时候,发现在statsmodels.discrete.discrete_model中实现了此模型,因此,在这里,我给出自己实现的Possion回归模型实现代码并与其进行效果对比。import numpy as npimp...原创 2019-02-05 12:09:32 · 1753 阅读 · 0 评论 -
1.4 局部加权回归的正规方程推导及实现
import numpy as npimport matplotlib.pyplot as plt#定义维度m=40n=2#定义一个正态分布,参数分别为均值,方差以及X的行向量def guassianDistribution(mean,var,x): return 1/np.sqrt( 2 * np.pi * var )*np.exp( - (x-mean) ** 2 /...原创 2019-01-23 14:12:09 · 324 阅读 · 0 评论 -
3.2 牛顿方法下的Logistic回归及Python实现
import matplotlib.pyplot as pltfrom matplotlib.colors import ListedColormapimport numpy as npfrom sklearn.datasets import make_moonsfrom sklearn.linear_model import LogisticRegressionCVnp.rando...原创 2019-01-28 21:13:55 · 2004 阅读 · 1 评论 -
2.3 广义线性模型与Possion回归模型
原创 2019-02-02 18:22:33 · 2095 阅读 · 2 评论 -
1.3 欠/过拟合,局部加权回归(Loess/LWR)及Python实现(基于随机梯度下降)
import numpy as npimport matplotlib.pyplot as plt#定义一个正态分布,参数分别为均值,方差以及X的行向量def guassianDistribution(mean,var,x): return 1/np.sqrt( 2 * np.pi * var )*np.exp( - (x[1]-mean) ** 2 / (2*var) )#定义...原创 2019-01-22 19:59:08 · 2368 阅读 · 0 评论 -
2.2 指数族分布(以伯努利、高斯、泊松为例)
原创 2019-02-01 09:28:09 · 2547 阅读 · 0 评论 -
3.1 Logistic回归原理,参数推导及Python实现
import matplotlib.pyplot as pltimport numpy as np#假设def logistic(x): return 1/(1+np.exp(-x))#随机梯度下降def SGD(X,Y,a=0.001): theta = np.mat([0, 0], dtype='float64') for time in range(300...原创 2019-01-26 16:52:00 · 401 阅读 · 0 评论 -
1.2 正规方程的推导及Python验证
原创 2019-01-21 20:11:15 · 553 阅读 · 0 评论 -
2.1 最小二乘与最大似然估计
原创 2019-01-25 13:32:15 · 167 阅读 · 2 评论 -
3.3 softmax回归推导及python实现
from sklearn import datasetsfrom sklearn.model_selection import train_test_splitimport numpy as npdata = datasets.load_iris()X = data['data']y = data['target']# n:特征数,k:标签数n = X.shape[1]labe...原创 2019-02-17 20:41:53 · 718 阅读 · 0 评论