批梯度下降的 python 实现

# -*- coding: utf-8 -*-
"""
Created on Sun Aug 02 09:51:35 2015


@author: brian
"""
import numpy as np
if __name__ == "__main__":
    x = []
    y = []
    fx = open('ex2x.dat','r')
    for line in fx:
        x.append(float(line))
    fx.close()
    fy = open('ex2y.dat','r')
    for line in fy:
        y.append(float(line))
    fy.close()
    m = len(y)
    y = np.array(y)
    y.shape = (50,1)
    # Gradient descent
    x = np.array([x])
    x.shape  = (m,1)
    x = np.column_stack([np.ones([m,1]) ,x])
    theta = np.zeros([2,1])
    MAX_ITR = 1500
    alpha = 0.07
    i = 0
    while i < MAX_ITR:
        grad = (float(1)/m) * np.dot(x.T , ( np.dot(x , theta) - y))
        theta = theta - alpha * grad
        i = i+1
    print theta
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值