【一些笔记】TensorFlow笔记

TensorFlow笔记

[by_041]

TensorFlow是基于Tensor(张量)计算的一种深度学习库

参考B站视频

一个博主,他最开始的博文全是关于TF的(至少22篇)

Tensorflow 1 的官方文档 用py2的


安装

  • 使用Anaconda Prompt

    • 先升级pip
      python -m pip install --upgrade pip

    • 再用镜像站安装
      pip install tensorflow-cpu -i https://pypi.douban.com/simple/

      不知道啥玩意的(跳过)
      pip install numpy pandas matplotlib sklearn tensorflow==2.0.0-alpha0 -i http://pypi.douban.com/simple/

      安装notebook配合使用体验更佳(体现在Jupyter中的使用)
      pip install notebook -i http://pypi.douban.com/simple/

    • 启用
      activate tensorflow

      禁用
      deactivate

    • 快速安装

      (若需要升级pip)python -m pip install --upgrade pip
      pip install tensorflow-cpu -i https://pypi.douban.com/simple/
      pip install notebook -i http://pypi.douban.com/simple/
      activate tensorflow
      
  • 试试下面这个程序,能运行就说明可了~

    # 简单粗暴的去除额外输出的办法,后面再研究
    import os
    os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
    
    # 引入 tensorflow 模块
    import tensorflow as tf
    
    
    # 创建一个整型常量,即 0 阶 Tensor
    t0 = tf.constant(3, dtype=tf.int32)
    
    # 创建一个浮点数的一维数组,即 1 阶 Tensor
    t1 = tf.constant([3., 4.1, 5.2], dtype=tf.float32)
    
    # 创建一个字符串的2x2数组,即 2 阶 Tensor
    t2 = tf.constant([['Apple', 'Orange'], ['Potato', 'Tomato']], dtype=tf.string)
    
    # 创建一个 2x3x1 数组,即 3 阶张量,数据类型默认为整型
    t3 = tf.constant([[[5], [6], [7]], [[4], [3], [2]]])
    
    # 打印上面创建的几个 Tensor
    print('==========================================================================')
    print(t0)
    print('==========================================================================')
    print(t1)
    print('==========================================================================')
    print(t2)
    print('==========================================================================')
    print(t3)
    print('==========================================================================')
    

语法基础

TensorFlow是基于Tensor(张量)计算的一种深度学习库,其基础语法都有所体现

使用基础

数据处理基础

包括用pandas读取数据

基于pandas进行读取数据
import pandas as pd
data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
print(data)
基于matplotlib进行数据绘图
# 数据绘图
import matplotlib.pyplot as plt
# %matplotlib inline # 在bote中绘图
plt.scatter(data.time,data.fans)

Tensorflow 2.0 tf.keras

官方推荐的首选

一次完整的线性回归分析

# 第一次完整的线性回归分析




# 读取数据
import pandas as pd
data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
print(data)





# 数据绘图
import matplotlib.pyplot as plt
# %matplotlib inline
plt.scatter(data.time,data.fans)


x=data.time
y=data.fans

import tensorflow as tf
# 建立线性模型f(x)=ax+b
model=tf.keras.Sequential()
model.add(tf.keras.layers.Dense(1,input_shape=(1,)))
# 输出数据维度为1
# 输入数据维度为1,参数类型为元组:(1,)

# 输出模型的形状
print('==========================================================================')
print(model.summary())
print('==========================================================================')
# 输出结果:
# Model: "sequential_1"【模型名称】
# _________________________________________________________________
#  Layer (type)                Output Shape              Param #   
# =================================================================
#  dense_1 (Dense)     (None【编号,忽略】, 1【输出维度】)     2【总维度】
# 【*输入维度=总维度-输出维度】
# =================================================================
# Total params: 2
# Trainable params: 2
# Non-trainable params: 0
# _________________________________________________________________





# 使用梯度下降算法进行优化
model.compile(optimizer='adam',	# 优化方法
	loss='mse'				# 损失函数,此处使用均方差
	)

# 训练方法
history=model.fit(x,y,epochs=500)
# epochs:所有数据的训练次数

# print(history) # 观察到loss值不断下降🐂

# 对现有数据进行预测
predict_1=model.predict(x)
# 预测x=91,92,93时的情况
predict_2=model.predict(pd.Series([91,92,93]))
# 下面这种也等效
# model.predict([91,92,93])

print('现有预测:')
print(predict_1)
print('预测未来3天:')
print(predict_2)
简化后
# 数据读入
import pandas as pd
data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
print(data)

# 数据绘图
import matplotlib.pyplot as plt
# %matplotlib inline # 在note中行内显示图像
plt.scatter(data.time,data.fans)
plt.show()


# 建立线性模型

x=data.time
y=data.fans

import tensorflow as tf
# 建立线性模型f(x)=ax+b
model=tf.keras.Sequential()
model.add(tf.keras.layers.Dense(1,input_shape=(1,)))
# 输入数据维度为1
# 输出数据维度为1


# 使用梯度下降算法进行优化
model.compile(optimizer='adam',	# 优化方法
	loss='mse'				# 损失函数,此处使用均方差
	)

# 训练方法
history=model.fit(x,y,epochs=5000)
# epochs:所有数据的训练次数


# 预测x=91,92,93时的情况
model.predict(pd.Series([91,92,93]))
# 下面这种也等效
# model.predict([91,92,93])

一个叫itluojie博主做TF

Tensorflow2.0入门教程1:Tensorflow安装

  • 自己装好了,跳过。

Tensorflow2.0入门教程2:认识张量Tensor


Tensorflow2.0入门教程3:Numpy下的线性回归

My改进版
  • 预测模型: y = w × x + b y=w\times x+ b y=w×x+b
import random as rd
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# import tensorflow as tf
import os   
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

eps=1e-6

# x = np.array([1.0, 2.0, 3.0, 4.0, 5.0, 6.0])
# y = np.array([5.0,6.0,7.0,8.0,9.0,10.0])


np.random.seed(123)
x=np.random.random(100)*100
# y=np.random.random(100)*180+456 # 最后结果应该为 w=180/100=1.8 b=456 e=1e5 左右 
y=np.random.random(100)*340-666 # 最后结果应该为 w=340/100=3.4 b=-666 e=1e5 左右 
x.sort()
y.sort()
# data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
# x=np.array(data.time)
# y=np.array(data.fans)


plt.scatter(x, y)
# plt.show()


w, b = 0, 0  # 定义权重W和偏置b
num_epoch = 10000  # 定义循环迭代次数
learning_rate = 0.000005  # 定义学习率,实际用的时候根据情况
loss=0
e=0
cnt_pass=0
while True :
    # 记录
    e+=1
    las_loss=loss
    las_w=w
    las_b=b
    # 模型,预测值
    y_pred = w * x + b
    # 目标函数,MSE
    loss = np.mean(np.square(y_pred-y))
    # 手动计算损失函数关于自变量(模型参数)的梯度
    grad_w, grad_b = (y_pred - y).dot(x), (y_pred - y).sum()
    # 优化算法,更新参数
    w, b = w - learning_rate * grad_w, b - learning_rate * grad_b
    # 是否继续
    # if e>5e4: # 用于和tf自带的比较,固定训练次数
    #     break;
    if abs(las_loss-loss)<eps and abs(las_w-w)<eps and abs(las_b-b)<eps :
        cnt_pass+=1
        if cnt_pass>100:
            break
    else:
        cnt_pass=0
    if e %2000 ==0:
        plt.cla()
        plt.scatter(x,y)
        plt.plot(x, y_pred, 'r-', lw=5)
        plt.title('Loss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
            fontdict={'size': 14, 'color':  'red'})
        plt.pause(0.1)
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Done < at e=%d >\nLoss=%.4f | adj=%e | w=%.4f | b=%.4f'%(e,loss,learning_rate,w,b),
    fontdict={'size': 14, 'color':  'red'})
plt.pause(0.1)
plt.show()
print(w, b)
乱搞的二次函数
  • 预测模型: y = w × x 2 + b y=w\times x^2+ b y=w×x2+b
import random as rd
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

eps=1e-6

# x = np.array([1.0, 2.0, 3.0, 4.0, 5.0, 6.0])
# y = np.array([5.0,6.0,7.0,8.0,9.0,10.0])


np.random.seed(123)
# x=np.array([i*1. for i in range(100)])
x=np.random.random(100)*100-50
x.sort()
y=np.array([x[i]**2+rd.random()*180. for i in range(100)])
# data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
# print((x,y))
# x=(data.time)*1.0
# y=(data.fans)*1.0


plt.scatter(x, y)
# plt.show()
# exit()

xx=np.array([(x[i])**2*1. for i in range(100)])

w, b = 0, 0  # 定义权重W和偏置b
num_epoch = 10000  # 定义循环迭代次数
learning_rate = 0.00000005  # 定义学习率
for e in range(num_epoch or True):
    # 模型,预测值
    y_pred =w*xx+b
    # 目标函数,MSE
    loss = np.mean(np.square(y_pred-y))
    # 手动计算损失函数关于自变量(模型参数)的梯度
    grad_w, grad_b = (y_pred - y).dot(x), (y_pred - y).sum()
    # 优化算法,更新参数
    las_w=w
    las_b=b
    w, b = w - learning_rate * grad_w, b - learning_rate * grad_b
    if abs(las_w-w)<eps and abs(las_b-b)<eps :
        break
    if e %70 ==0:
        plt.cla()
        plt.scatter(x,y)
        plt.plot(x, y_pred, 'r-', lw=5)
        plt.title('Loss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
            fontdict={'size': 14, 'color':  'red'})
        plt.pause(0.1)
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Done\nLoss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
    fontdict={'size': 14, 'color':  'red'})
plt.pause(0.1)
plt.show()
print(w, b)
  • 预测模型: y = w × ( x − 50 ) 2 + b y=w\times (x-50)^2+ b y=w×(x50)2+b
import random as rd
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
# import tensorflow as tf
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

eps=1e-6

# x = np.array([1.0, 2.0, 3.0, 4.0, 5.0, 6.0])
# y = np.array([5.0,6.0,7.0,8.0,9.0,10.0])


np.random.seed(123)
# x=np.array([i*1. for i in range(100)])
x=np.random.random(100)*100
x.sort()
y=np.array([(x[i]-50)**2+rd.random()*180. for i in range(100)])
# data = pd.read_csv('C:\\Users\\15614\\Desktop\\应用基础\\数模实战\\数据\\一手粉丝量 - 90 days.csv')
# print((x,y))
# x=(data.time)*1.0
# y=(data.fans)*1.0


plt.scatter(x, y)
# plt.show()
# exit()

xx=np.array([(x[i]-50)**2*1. for i in range(100)])

w, b = 0, 0  # 定义权重W和偏置b
num_epoch = 10000  # 定义循环迭代次数
learning_rate = 0.0000000005  # 定义学习率
for e in range(num_epoch or True):
    # 模型,预测值
    y_pred =w*xx+b
    # 目标函数,MSE
    loss = np.mean(np.square(y_pred-y))
    # 手动计算损失函数关于自变量(模型参数)的梯度
    grad_w, grad_b = (y_pred - y).dot(x), (y_pred - y).sum()
    # 优化算法,更新参数
    las_w=w
    las_b=b
    w, b = w - learning_rate * grad_w, b - learning_rate * grad_b
    if abs(las_w-w)<eps and abs(las_b-b)<eps :
        break
    if e %70 ==0:
        plt.cla()
        plt.scatter(x,y)
        plt.plot(x, y_pred, 'r-', lw=5)
        plt.title('Loss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
            fontdict={'size': 14, 'color':  'red'})
        plt.pause(0.1)
plt.cla()
plt.scatter(x,y)
plt.plot(x, y_pred, 'r-', lw=5)
plt.title('Done\nLoss=%.4f | adj=%e | w=%.4f | b=%.4f'%(loss,learning_rate,w,b),
    fontdict={'size': 14, 'color':  'red'})
plt.pause(0.1)
plt.show()
print(w, b)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值