- 博客(9)
- 收藏
- 关注
原创 梯度下降法算法实现
from numpy import *# 数据集大小 即20个数据点m = 20# x的坐标以及对应的矩阵X0 = ones((m, 1)) # 生成一个m行1列的向量,也就是x0,全是1X1 = arange(1, m+1).reshape(m, 1) # 生成一个m行1列的向量,也就是x1,从1到mX = hstack((X0, X1)) # 按照列堆叠形成数组,其实就是样本数据# 对应的y坐标Y = array([ 3, 4, 5, 5, 2, 4, 7, 8, 1..
2021-11-12 10:30:40
533
1
原创 paddle学习
import numpy as npimport paddle.vision.datasetsfrom paddle.nn import Linearimport paddle.nn.functional as Fimport osimport gzipimport randomimport numpy as nptrain_dataset=paddle.vision.datasets.MNIST(mode='train')train_data0=np.array(train_data.
2021-10-19 19:52:10
809
原创 改进欧拉算法
import numpy as npimport mathdef sigmoid(x): return 1 / (1 + np.exp(-x))def deriv_sigmoid(x): fx = sigmoid(x) return fx * (1 - fx)def mse_loss(y_true, y_pred): return ((y_true - y_pred) ** 2).mean()class NeuralNetwork: def __init__(self.
2021-09-24 22:03:10
55
原创 2021-09-10
感知器import numpy as npdef andhanshu(x): if x > 0: return 1 if x < 0: return 0class waiji(object): def __init__(self, x): self.x = x self.w = np.random.rand(2, 1) self.b = np.random.rand(1, 1)
2021-09-10 23:30:23
46
转载 2021-09-03
numpy学习笔记和心得numpy的运算机制:这个概念叫做广播机制(broadcasting),它非常有用。1. numpy基本加减和取行操作2. 矩阵删除、插入、尾部添加操作(delete,insert,append)3. delete()函数4. insert()函数5. append()函数6. np.random.choice(a, size, replace, p)7. np.argmax(a, axis=None, out=None)8. 星号(*)的作用9. ndarr
2021-09-03 22:48:46
120
原创 2021-09-03
线性回归方程设计import numpy as npimport matplotlib as pltx = np.array([[2104, 3], [1600, 3], [2400, 3], [1416, 2], [3000, 4]])t = np.array([400, 330, 369, 232, 540])theta1 = np.random.random()theta2 = np.random.random()theta3 = np.random.random()theta
2021-09-03 16:09:00
47
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人