ML笔记-Curve Fitting

这篇博客记录了机器学习中的多项式拟合方法,特别是在拟合sin(2πx)时,分析了随着训练数据点数量N从10增加到100的影响。此外,介绍了正则化的重要性,包括Ridge Regression和Lasso方法,讨论了不同正则化项(如L1和L2范数)对模型参数的影响。
摘要由CSDN通过智能技术生成

机器学习基础学习笔记

多项式拟合 sin(2πx) ,当训练数据点N=10时的情况,多项式的阶数取不同值。

多项式曲线拟合: y(x,w)=w0+w1x+w2x2+...+wMxM=Mj=0wjxj

import matplotlib.pyplot as plt
import numpy as np
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import PolynomialFeatures
from sklearn.linear_model import LinearRegression

%matplotlib inline
x_ = np.reshape(np.linspace(0, 1, 1000), [-1, 1])
y_ = np.reshape(np.sin(2.*np.pi*x_), [-1, 1])

x = np.linspace(0, 1, 10)
y = np.sin(2.*np.pi*x) + 0.2 * np.random.normal(0, 1, 10)

xtrain = np.reshape(x, [-1, 1])
ytrain = np.reshape(y, [-1, 1])

x_ridge, y_ridge = xtrain, ytrain
x_lasso, y_lasso = xtrain, ytrain

plt.figure()
plt.xlabel(u'x')
plt.ylabel(u'y')
plt.plot(xtrain, ytrain, 'ro')
plt.plot(x_, y_, 'b-')

这里写图片描述

poly = PolynomialFeatures(10)
x_poly = poly.fit_transform(xtrain)
regressor_poly = LinearRegression()
regressor_poly.fit(x_poly, ytrain)
x__poly = poly.fit_transform(x_)

plt.figure()
plt.xlabel(u'x')
plt.ylabel(u'y')
plt.plot(x, y, 'ro')
plt.plot(x_, y_, 'b-')
plt.plot(x_, regressor_poly.predict(x__poly), 'g-')

# 残差值绘制
yr = regressor_poly.predict(x_poly)
for idx, x 
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值