【机器学习】TensorFlow 202107090086

【源代码】

import tensorflow as tf

l2_reg = tf.keras.regularizers.l2(0.1)  # 设置模型
model = tf.keras.models.Sequential([
    tf.keras.layers.Dense(30, activation='relu',
                          kernel_initializer='he_normal', kernel_regularizer=l2_reg),
    tf.keras.layers.Dense(60, activation='relu',
                          kernel_initializer='he_normal', kernel_regularizer=l2_reg),
    tf.keras.layers.Dense(60, activation='relu',
                          kernel_initializer='he_normal', kernel_regularizer=l2_reg),
    tf.keras.layers.Dense(2, activation="softmax")
])


def random_batch(X, y, batch_size=32):  # 随机抽取数据
    idx = np.random.randint(len(X), size=batch_size)
    Xx = np.array([X[i] for i in idx])
    Yy = np.array([y[i] for i in idx])
    return Xx, Yy


def print_status_bar(iteration, total, loss, metrics=None):  # 输出状态
    #     print('iteration',iteration)
    #     print('total',total)
    #     print('loss',loss.result())

    metrics = "-".join(["{}:{:4f}".format(m.name, m.result()) for m in [loss] + (metrics or [])])
    #     print('metrics',metrics)
    #     print("===============")
    end = "" if iteration < total else "\n"
    print("\r{}/{}-".format(iteration, total) + metrics, end=end)


import numpy as np
import matplotlib.pyplot as plt

a = tf.random.normal([1000, 2], 8, 2)  # 生成数据a类
a_lable = tf.cast([[0] for i in range(1000)], dtype=tf.int64)

b = tf.random.normal([1000, 2], 1, 2)  # 生成数据b类
b_lable = tf.cast([[1] for i in range(1000)], dtype=tf.int64)
X_train = np.concatenate([a, b])  # 合并数据
y_train = np.concatenate([a_lable, b_lable])
y_train = tf.one_hot(y_train[:, 0], 2)  # 将标签合转化为one-hot编码

n_epochs = 5  # 迭代次数
batch_size = 32  # 批次大小
n_steps = int(len(X_train) / 32)  # 分批次
optimizer = tf.keras.optimizers.Nadam(lr=0.01)  # 算法优化器,以及学习率
loss_fn = tf.keras.losses.CategoricalCrossentropy()  # 损失函数
mean_loss = tf.keras.metrics.Mean()  # 平均损失函数
metrics = [tf.keras.metrics.MeanAbsoluteError()]  # 要计算的误差

for epoch in range(1, n_epochs + 1):  # 迭代次数
    print("Epoch{}/{}".format(epoch, n_epochs))
    for step in range(1, n_steps + 1):  # 分批次
        X_batch, y_batch = random_batch(X_train, y_train)  # 从数据集中随机抽取一个批次的训练数据
        with tf.GradientTape() as tape:
            y_pred = model(X_batch, training=True)  # 得到当前模型的结果
            main_loss = tf.reduce_mean(loss_fn(y_batch, y_pred))  # 计算损失tf.keras.losses.BinaryCrossentropy()
            loss = tf.add_n([main_loss] + model.losses)  # 计算损失2
        gradients = tape.gradient(loss, model.trainable_variables)  # 求梯度
        optimizer.apply_gradients(zip(gradients, model.trainable_variables))  # 应用梯度,并更新
        mean_loss(loss)  # 评价梯度
        for metric in metrics:  # 计算其他指标 metrics=[tf.keras.metrics.MeanAbsoluteError()]
            metric(y_batch, y_pred)
        print_status_bar(step * batch_size, len(y_train), mean_loss, metrics)  # 输出误差以及批次进度

    print_status_bar(len(y_train), len(y_train), mean_loss, metrics)  # 输出最后一次误差及批次进度

model.predict(a)  # 预测a类数据
model.predict(b)  # 预测b类数据
np.sum(np.argmax(model.predict(b), axis=1)) / len(b)  # TP计算准确率0.999
np.sum(np.argmax(model.predict(a), axis=1)) / len(a)  # TP计算准确率0.999

【运行结果】

Epoch1/5
2000/2000-mean:14.044858-mean_absolute_error:0.182928
Epoch2/5
2000/2000-mean:8.709734-mean_absolute_error:0.1166409
Epoch3/5
2000/2000-mean:6.232692-mean_absolute_error:0.088220
Epoch4/5
2000/2000-mean:4.812209-mean_absolute_error:0.073772
Epoch5/5
2000/2000-mean:3.906441-mean_absolute_error:0.065139

[1]:

0.008

【源代码】

import tensorflow as tf
import matplotlib.pyplot as plt

x=tf.linspace(1.,10.,100)
x=tf.reshape(x,[1,100])
w=tf.Variable([[0.5]])
y=tf.matmul(tf.transpose(w),x)
w=tf.Variable([[0.1]])
a=tf.Variable([[0.001]])
LOSS=[]
for i in range(100):
    with tf.GradientTape() as tape:
        y_pre=tf.matmul(tf.transpose(w),x)
        loss=0.5*tf.reduce_mean(tf.square(y-y_pre))
        LOSS.append(loss)
    g=tape.gradient(loss,w)
    w=w-a*g
    w=tf.Variable(w)
    print("当前损失为:",loss.numpy(),"求得的w为:",w.numpy())
plt.plot(LOSS)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()

【运行结果】

当前损失为: 2.9709094 求得的w为: [[0.11485454]]
当前损失为: 2.7543488 求得的w为: [[0.12915745]]
当前损失为: 2.5535743 求得的w为: [[0.1429292]]
当前损失为: 2.3674352 求得的w为: [[0.1561895]]
当前损失为: 2.1948645 求得的w为: [[0.16895737]]
当前损失为: 2.0348728 求得的w为: [[0.1812511]]
当前损失为: 1.8865434 求得的w为: [[0.19308826]]
当前损失为: 1.7490267 求得的w为: [[0.20448585]]
当前损失为: 1.6215336 求得的w为: [[0.21546017]]
当前损失为: 1.5033342 求得的w为: [[0.22602694]]
当前损失为: 1.3937508 求得的w为: [[0.2362013]]
当前损失为: 1.2921551 求得的w为: [[0.24599783]]
当前损失为: 1.1979653 求得的w为: [[0.25543055]]
当前损失为: 1.1106414 求得的w为: [[0.26451296]]
当前损失为: 1.0296828 求得的w为: [[0.2732581]]
当前损失为: 0.95462537 求得的w为: [[0.28167847]]
当前损失为: 0.8850394 求得的w为: [[0.28978613]]
当前损失为: 0.8205256 求得的w为: [[0.2975927]]
当前损失为: 0.7607146 求得的w为: [[0.30510938]]
当前损失为: 0.7052632 求得的w为: [[0.3123469]]
当前损失为: 0.6538541 求得的w为: [[0.31931567]]
当前损失为: 0.60619223 求得的w为: [[0.32602564]]
当前损失为: 0.5620047 求得的w为: [[0.33248642]]
当前损失为: 0.52103806 求得的w为: [[0.33870727]]
当前损失为: 0.48305768 求得的w为: [[0.3446971]]
当前损失为: 0.4478459 求得的w为: [[0.35046446]]
当前损失为: 0.41520083 求得的w为: [[0.35601768]]
当前损失为: 0.3849353 求得的w为: [[0.36136466]]
当前损失为: 0.356876 求得的w为: [[0.36651307]]
当前损失为: 0.33086202 求得的w为: [[0.3714703]]
当前损失为: 0.30674422 求得的w为: [[0.37624344]]
当前损失为: 0.28438443 求得的w为: [[0.38083932]]
当前损失为: 0.2636546 求得的w为: [[0.38526452]]
当前损失为: 0.24443586 求得的w为: [[0.38952538]]
当前损失为: 0.22661799 求得的w为: [[0.393628]]
当前损失为: 0.21009903 求得的w为: [[0.39757827]]
当前损失为: 0.19478416 求得的w为: [[0.40138185]]
当前损失为: 0.1805856 求得的w为: [[0.40504417]]
当前损失为: 0.16742207 求得的w为: [[0.40857047]]
当前损失为: 0.15521811 求得的w为: [[0.41196582]]
当前损失为: 0.14390373 求得的w为: [[0.41523507]]
当前损失为: 0.13341412 求得的w为: [[0.41838294]]
当前损失为: 0.12368905 求得的w为: [[0.4214139]]
当前损失为: 0.11467293 求得的w为: [[0.4243323]]
当前损失为: 0.10631403 求得的w为: [[0.42714232]]
当前损失为: 0.098564394 求得的w为: [[0.429848]]
当前损失为: 0.09137968 求得的w为: [[0.4324532]]
当前损失为: 0.084718674 求得的w为: [[0.43496162]]
当前损失为: 0.07854325 求得的w为: [[0.43737692]]
当前损失为: 0.07281793 求得的w为: [[0.4397025]]
当前损失为: 0.067509964 求得的w为: [[0.44194174]]
当前损失为: 0.06258892 求得的w为: [[0.44409782]]
当前损失为: 0.05802657 求得的w为: [[0.44617382]]
当前损失为: 0.053796817 求得的w为: [[0.44817272]]
当前损失为: 0.04987539 求得的w为: [[0.45009738]]
当前损失为: 0.04623981 求得的w为: [[0.45195058]]
当前损失为: 0.04286923 求得的w为: [[0.45373496]]
当前损失为: 0.039744332 求得的w为: [[0.45545307]]
当前损失为: 0.03684724 求得的w为: [[0.45710737]]
当前损失为: 0.034161333 求得的w为: [[0.45870024]]
当前损失为: 0.031671196 求得的w为: [[0.46023396]]
当前损失为: 0.029362578 求得的w为: [[0.46171072]]
当前损失为: 0.027222238 求得的w为: [[0.46313265]]
当前损失为: 0.025237901 求得的w为: [[0.46450177]]
当前损失为: 0.02339822 求得的w为: [[0.46582004]]
当前损失为: 0.02169264 求得的w为: [[0.46708935]]
当前损失为: 0.020111393 求得的w为: [[0.46831155]]
当前损失为: 0.018645389 求得的w为: [[0.46948835]]
当前损失为: 0.017286247 求得的w为: [[0.47062144]]
当前损失为: 0.016026199 求得的w为: [[0.47171244]]
当前损失为: 0.014858003 求得的w为: [[0.47276294]]
当前损失为: 0.013774947 求得的w为: [[0.47377443]]
当前损失为: 0.012770831 求得的w为: [[0.47474834]]
当前损失为: 0.011839931 求得的w为: [[0.4756861]]
当前损失为: 0.01097687 求得的w为: [[0.47658902]]
当前损失为: 0.010176734 求得的w为: [[0.47745842]]
当前损失为: 0.00943492 求得的w为: [[0.47829553]]
当前损失为: 0.00874717 求得的w为: [[0.47910157]]
当前损失为: 0.008109552 求得的w为: [[0.47987765]]
当前损失为: 0.007518423 求得的w为: [[0.4806249]]
当前损失为: 0.006970382 求得的w为: [[0.48134443]]
当前损失为: 0.0064622904 求得的w为: [[0.48203725]]
当前损失为: 0.005991219 求得的w为: [[0.4827043]]
当前损失为: 0.0055545014 求得的w为: [[0.4833466]]
当前损失为: 0.0051496117 求得的w为: [[0.48396507]]
当前损失为: 0.0047742343 求得的w为: [[0.48456055]]
当前损失为: 0.0044262214 求得的w为: [[0.48513392]]
当前损失为: 0.0041035754 求得的w为: [[0.48568597]]
当前损失为: 0.0038044578 求得的w为: [[0.48621756]]
当前损失为: 0.0035271323 求得的w为: [[0.48672938]]
当前损失为: 0.0032700289 求得的w为: [[0.4872222]]
当前损失为: 0.00303167 求得的w为: [[0.4876967]]
当前损失为: 0.002810685 求得的w为: [[0.4881536]]
当前损失为: 0.0026058045 求得的w为: [[0.48859355]]
当前损失为: 0.002415853 求得的w为: [[0.48901713]]
当前损失为: 0.002239759 求得的w为: [[0.489425]]
当前损失为: 0.0020764905 求得的w为: [[0.4898177]]
当前损失为: 0.0019251321 求得的w为: [[0.49019584]]
当前损失为: 0.0017848014 求得的w为: [[0.49055994]]
当前损失为: 0.0016547017 求得的w为: [[0.4909105]]

  • 34
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值