换而言之,只要我们找到的参数能让J(θ)的值最小,即表示我们找到了最能表示特征与结果之间关系的参数,而找到这个函数最小值对应的θ的方法包括梯度下降法
梯度下降法是只每次朝梯度的方向移动一个步长,以此达到函数的最小值
梯度可以理解为一个向量,它指向了函数增长最快的方向,不懂的可以去看看网易公开课的多变量微积分
假设只有一组变量,求得J(θ)的梯度为
用梯度乘一个步长即是每次θ要移动的距离
有了这些,就可以写代码了
import numpy as np
import random
def gettheta2(x,y,times,step):
‘’’
随机梯度下降算法
‘’’
a, b = np.shape(x)
train = np.ones((a, b + 1))
m, n = np.shape(train)
train[:, 1:] = x
theta = np.zeros(n)
for i in range(times):
a = random.randint(0,m-1)
randm_train = train[a]
randm_label = y[a]
hp = np.dot(randm_train,theta.transpose())
error = randm_label - hp
grand = np.dot(randm_train.transpose(),error)
theta = theta+grand*step
return theta
def gettheta1(x,y,times,step):
‘’’
批量梯度下降算法
‘’’
a,b = np.shape(x)
train = np.ones((a,b+1))
m, n = np.shape(train)
train[:,1:] = x
theta = np.zeros(n)
for i in range(times):
hp = np.dot(train,theta.transpose())
error = hp - y
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)
知识点,真正体系化!**
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)