size_t认知

 size_t 类型定义在cstddef头文件中,该文件是C标准库的头文件stddef.h的C++版。它是一个与机器相关的unsigned类型,其大小足以保证存储内存中对象的大小。

    typedef unsigned int size_t;

   在C++中,size_t的引入增加了程序在不同平台上的移植性,经测试发现,在32位系统中size_t是4字节的,而在64位系统中,size_t是8字节的,这样利用该类型可以增加程序移植性。

其中,Yi^是模型预测的房价,Yi是真实的房价,n是样本数量。 我们可以使用梯度下降算法来最小化均方误差,以求得最优的权重和偏置。梯度下降算法的基本思想是,通过不断地调整权重和偏置,使损失函数最小化。 具体地,我们先随机初始化权重和偏置,然后计算出模型对于每个样本的预测值,再计算出损失函数的梯度,最后根据梯度的方向更新权重和偏置。重复这个过程,直到损失函数收敛。 下面是线性回归模型的Python实现代码: ```python import numpy as np class LinearRegression: def __init__(self, learning_rate=0.01, num_iterations=1000): self.learning_rate = learning_rate # 学习率 self.num_iterations = num_iterations # 迭代次数 self.w = None # 权重 self.b = None # 偏置 def fit(self, X, y): n_samples, n_features = X.shape # 初始化权重和偏置 self.w = np.zeros(n_features) self.b = 0 # 梯度下降 for i in range(self.num_iterations): y_pred = np.dot(X, self.w) + self.b dw = (1/n_samples) * np.dot(X.T, (y_pred - y)) db = (1/n_samples) * np.sum(y_pred - y) self.w -= self.learning_rate * dw self.b -= self.learning_rate * db def predict(self, X): y_pred = np.dot(X, self.w) + self.b return y_pred ``` 神经网络模型 除了线性回归模型,我们还可以用神经网络来解决波士顿房价预测问题。神经网络是一种由多个神经元组成的网络结构,其中每个神经元都是一个基本的计算单元。 在神经网络中,每个神经元接收到来自上一层神经元的输入,并通过一个激活函数来计算出输出。通过不断地调整权重和偏置,神经网络可以逐渐地学习到输入和输出之间的复杂映射关系。 对于波士顿房价预测问题,我们可以构建一个包含多个隐藏层的神经网络,其中每个隐藏层都包含多个神经元。下面是一个包含一个隐藏层的神经网络示意图: 图2:包含一个隐藏层的神经网络示意图 在神经网络中,我们需要定义一个损失函数来衡量模型预测值和真实值之间的差异。对于回归问题,通常使用均方误差作为损失函数,公式如下: MSE=1n∑i=1n(Yi^−Yi)2 其中,Yi^是模型预测的房价,Yi是真实的房价,n是样本数量。 我们可以使用反向传播算法来计算损失函数对于权重和偏置的梯度,并利用梯度下降算法来最小化损失函数。反向传播算法的基本思想是,通过链式法则计算出每个神经元的梯度,然后将梯度从输出层依次向前传播,直到计算出所有权重和偏置的梯度。最后根据梯度的方向更新权重和偏置。 下面是一个包含一个隐藏层的神经网络的Python实现代码: ```python import numpy as np class NeuralNetwork: def __init__(self, learning_rate=0.01, num_iterations=1000, hidden_layer_size=4): self.learning_rate = learning_rate # 学习率 self.num_iterations = num_iterations # 迭代次数 self.hidden_layer_size = hidden_layer_size # 隐藏层大小 self.W1 = None # 输入层到隐藏层的权重 self.b1 = None # 输入层到隐藏层的偏置 self.W2 = None # 隐藏层到输出层的权重 self.b2 = None # 隐藏层到输出层的偏置 def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def fit(self, X, y): n_samples, n_features = X.shape # 初始化权重和偏置 self.W1 = np.random.randn(n_features, self.hidden_layer_size) self.b1 = np.zeros((1, self.hidden_layer_size)) self.W2 = np.random.randn(self.hidden_layer_size, 1) self.b2 = np.zeros((1, 1)) # 梯度下降 for i in range(self.num_iterations): # 前向传播 Z1 = np.dot(X, self.W1) + self.b1 A1 = self.sigmoid(Z1) Z2 = np.dot(A1, self.W2) + self.b2 y_pred = Z2 # 计算损失函数 cost = np.mean((y_pred - y)**2) # 反向传播 dZ2 = y_pred - y dW2 = np.dot(A1.T, dZ2) db2 = np.sum(dZ2, axis=0, keepdims=True) dA1 = np.dot(dZ2, self.W2.T) dZ1 = dA1 * (A1 * (1 - A1)) dW1 = np.dot(X.T, dZ1) db1 = np.sum(dZ1, axis=0) # 更新权重和偏置 self.W1 -= self.learning_rate * dW1 self.b1 -= self.learning_rate * db1 self.W2 -= self.learning_rate * dW2 self.b2 -= self.learning_rate * db2 def predict(self, X): Z1 = np.dot(X, self.W1) + self.b1 A1 = self.sigmoid(Z1) Z2 = np.dot(A1, self.W2) + self.b2 y_pred = Z2 return y_pred ``` 以上就是波士顿房价预测任务的线性回归模型和神经网络模型的介绍和Python实现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值