机器学习-梯度下降法

换而言之,只要我们找到的参数能让J(θ)的值最小,即表示我们找到了最能表示特征与结果之间关系的参数,而找到这个函数最小值对应的θ的方法包括梯度下降法

梯度下降法是只每次朝梯度的方向移动一个步长,以此达到函数的最小值

梯度可以理解为一个向量,它指向了函数增长最快的方向,不懂的可以去看看网易公开课的多变量微积分

假设只有一组变量,求得J(θ)的梯度为

用梯度乘一个步长即是每次θ要移动的距离

有了这些,就可以写代码了

import numpy as np

import random

def gettheta2(x,y,times,step):

‘’’

随机梯度下降算法

‘’’

a, b = np.shape(x)

train = np.ones((a, b + 1))

m, n = np.shape(train)

train[:, 1:] = x

theta = np.zeros(n)

for i in range(times):

a = random.randint(0,m-1)

randm_train = train[a]

randm_label = y[a]

hp = np.dot(randm_train,theta.transpose())

error = randm_label - hp

grand = np.dot(randm_train.transpose(),error)

theta = theta+grand*step

return theta

def gettheta1(x,y,times,step):

‘’’

批量梯度下降算法

‘’’

a,b = np.shape(x)

train = np.ones((a,b+1))

m, n = np.shape(train)

train[:,1:] = x

theta = np.zeros(n)

for i in range(times):

hp = np.dot(train,theta.transpose())

error = hp - y
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

img

img

img

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

知识点,真正体系化!**

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值