keras入门(一) 求线性方程解

7 篇文章 1 订阅
7 篇文章 0 订阅

为什么用keras写呢,当然是因为它搭建网络速度快,使用简单,作为tensorflow的封装,省去了很多中间层,也省去了繁琐的步骤,所以刚刚入门的同学可以先用keras敲开深度学习的大门,搭建自己的网络结构,相比于tensorflow的流程图(刚开始真的不好理解)真的好太多,如果未来需要深入学习,tensorflow的学习还是不可避免的,因为它更加偏底层一些,更容易理解网络结构

from keras.layers import Dense
from keras.models import Sequential
from keras.optimizers import SGD
import numpy as np
from matplotlib import pyplot as plt

X = np.random.randint(0, 10, size=(10000, 1)) #一个1000行的二维数组,范围0~10
Y = X * 50 + 40 + np.random.rand()
plt.scatter(X, Y)
plt.show()
model = Sequential()
#model.add(Dense(10))
model.add(Dense(input_dim=1, units=1, activation='linear'))
sgd = SGD(lr=0.001)
# 自定义loss函数,可以直接用函数名代替MSE
def squared_error(y_true, y_predict):
    return  K.square(y_predict - y_true)
model.compile(optimizer=sgd, loss='MSE', metrics=['mae'])
model.fit(X, Y, batch_size=500, epochs=1000, verbose=1)
print(model.layers[0].get_weights())

上方代码是一个y=kx+b的训练代码,通过不断的训练数据,最后得到了需要的k,b

[array([[50.000465]], dtype=float32), array([40.861874], dtype=float32)]

作为一个简单的网络,整体loss收敛很慢,去理解网络这些都不重要啦。中间有一个全连接层注释掉了,如果解开之后,整个网络能够收敛的更快,效果会更好,但是权重可能就不再是直观看到的k,x两个参数了,会有很多参数了。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值