机器学习——线性回归

线性回归实现


由上第一个公式,我们可以假设所有x0x0都等于1,即可得到第二个公式

class LinearRegression():
    def __init__(self):
        self.w=None

    def fit(self,X,y):
        X=np.insert(X,0,1,axis=1) #加入了一列全为1的X0到X中
        print(X.shape)
        #X.T.dot(X)表示X的转置点乘X
        #np.linalg.inv()是矩阵求逆的函数
        X_=np.linalg.inv(X.T.dot(X)) 
        self.w=X_.dot(X.T).dot(y)

    def predict(self,X):
        X=np.insert(X,0,1,axis=1) 
        y_pred=X.dot(self.w)
        return y_pred


1梯度下降实现

import pandas
import numpy as np
import matplotlib.pyplot as plt
pga=pandas.read_csv("pga.csv")

pga.distance=(pga.distance-pga.distance.mean())/pga.distance.std()
pga.accuracy=(pga.accuracy-pga.accuracy.mean())/pga.accuracy.std()
print(pga.head())

plt.scatter(pga.distance,pga.accuracy)
plt.xlabel('normalized distance')
plt.ylabel('normalized accuracy')
plt.show()

def cost(theta0,theta1,x,y):
    #初始化
    J=0
    m=len(x)
    for i in range(m):
        h=theta1*x[i]+theta0
        J+=(h-y[i])**2
    J/=(2*m)
    return J

print(cost(0,1,pga.distance,pga.accuracy))

#求J对theta0和theta1的偏导
def partial_cost_theta1(theta0,theta1,x,y):
    h=theta0+theta1*x
    diff=(h-y)*x
    partial=diff.sum()/(x.shape[0])
    return partial

partial1=partial_cost_theta1(0,5,pga.distance,pga.accuracy)
print("partial1=",partial1)

def partial_cost_theta0(theta0,theta1,x,y): 
    h=theta0+theta1*x
    diff=(h-y)
    partial=diff.sum()/(x.shape[0])
    return partial

partial0=partial_cost_theta0(1,1,pga.distance,pga.accuracy)

def gradient_descent(x,y,alpha=0.1,theta0=0,theta1=0):
    max_epochs=1000
    counter=0
    c=cost(theta1,theta0,pga.distance,pga.accuracy)
    costs=[c]
    convergence_thres=0.000001
    cprev=c+10
    theta0s=[theta0]
    theta1s=[theta1]

    while (np.abs(cprev-c)>convergence_thres) and (counter<max_epochs):
        cprev=c
        update0=alpha*partial_cost_theta0(theta0,theta1,x,y)
        update1=alpha*partial_cost_theta1(theta0,theta1,x,y)
        theta0-=update0
        theta1-=update1

        theta0s.append(theta0)
        theta1s.append(theta1)

        c=cost(theta0,theta1,pga.distance,pga.accuracy)

        costs.append(c)
        counter+=1
    return {"theta0":theta0,"theta1":theta1,"costs":costs}

print("Theta1=",gradient_descent(pga.distance,pga.accuracy)['theta1'])
descend=gradient_descent(pga.distance,pga.accuracy,alpha=.01)
plt.scatter(range(len(descend["costs"])),descend["costs"])
plt.show()


结果: 


逻辑回归

 

内容概要:本文详细介绍了施耐德M580系列PLC的存储结构、系统硬件架构、上电写入程序及CPU冗余特性。在存储结构方面,涵盖拓扑寻址、Device DDT远程寻址以及寄存器寻址三种方式,详细解释了不同类型的寻址方法及其应用场景。系统硬件架构部分,阐述了最小系统的构建要素,包括CPU、机架和模块的选择与配置,并介绍了常见的系统拓扑结构,如简单的机架间拓扑和远程子站以太网菊花链等。上电写入程序环节,说明了通过USB和以太网两种接口进行程序下载的具体步骤,特别是针对初次下载时IP地址的设置方法。最后,CPU冗余部分重点描述了热备功能的实现机制,包括IP通讯地址配置和热备拓扑结构。 适合人群:从事工业自动化领域工作的技术人员,特别是对PLC编程及系统集成有一定了解的工程师。 使用场景及目标:①帮助工程师理解施耐德M580系列PLC的寻址机制,以便更好地进行模块配置和编程;②指导工程师完成最小系统的搭建,优化系统拓扑结构的设计;③提供详细的上电写入程序指南,确保程序下载顺利进行;④解释CPU冗余的实现方式,提高系统的稳定性和可靠性。 其他说明:文中还涉及一些特殊模块的功能介绍,如定时器事件和Modbus串口通讯模块,这些内容有助于用户深入了解M580系列PLC的高级应用。此外,附录部分提供了远程子站和热备冗余系统的实物图片,便于用户直观理解相关概念。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值