深度学习学习笔记(三)练习1

FizzBuzz

FizzBuzz是一个简单的小游戏。游戏规则如下:从1开始往上数数,当遇到3的倍数的时候,说fizz,当遇到5的倍数,说buzz,当遇到15的倍数,就说fizzbuzz,其他情况下则正常数数。

我们可以写一个简单的小程序来决定要返回正常数值还是fizz, buzz 或者 fizzbuzz。

简单的小程序:

#将数字划分类别:(num:说出的数字)
def fizz_buzz_encoding(num):
    if num % 15 == 0:
        return 3
    elif num % 5 == 0:
        return 2
    elif num % 3 == 0:
        return 1
    else:
        return 0
    
#类别对应具体的输出:(classes:类别)
def fizz_buzz_decoding(num, classes):
    return [str(num), 'fizz', 'buzz', 'fizzbuzz'][classes]
result = []
for i in range(1, 101):
    result.append(fizz_buzz_decoding(i, fizz_buzz_encoding(i)))
print(result)


>>>    ['1', '2', 'fizz', '4', 'buzz', 'fizz', '7', '8', 'fizz', 'buzz', '11', 'fizz', '13', '14', 'fizzbuzz', '16', '17', 'fizz', '19', 'buzz', 'fizz', '22', '23', 'fizz', 'buzz', '26', 'fizz', '28', '29', 'fizzbuzz', '31', '32', 'fizz', '34', 'buzz', 'fizz', '37', '38', 'fizz', 'buzz', '41', 'fizz', '43', '44', 'fizzbuzz', '46', '47', 'fizz', '49', 'buzz', 'fizz', '52', '53', 'fizz', 'buzz', '56', 'fizz', '58', '59', 'fizzbuzz', '61', '62', 'fizz', '64', 'buzz', 'fizz', '67', '68', 'fizz', 'buzz', '71', 'fizz', '73', '74', 'fizzbuzz', '76', '77', 'fizz', '79', 'buzz', 'fizz', '82', '83', 'fizz', 'buzz', '86', 'fizz', '88', '89', 'fizzbuzz', '91', '92', 'fizz', '94', 'buzz', 'fizz', '97', '98', 'fizz', 'buzz']

下面写一个神经网络,让它学会自己玩这个游戏:

1、定义模型的输入与输出:

如果直接输入1,2,3。。。,模型训练困难;需要将数字转化成二进制来输入

注:

  • 使用其它进制转二进制: int(‘num’, 2), int(‘num’, 8), 例如 int(‘1024’, 2)表示将二进制的1011转化为十进制
  • 使用十进制转二进制: bin(num)
  • 使用十进制转八进制:oct(num)
  • 使用十进制转十六进制: hex(num)
#这里,自己来写一个进制函数,便于输入到神经网络:
import torch
import numpy as np


NUM_DIGITS = 10   #输入数字(转为二进制后,不够的位数前面补0)个数
def binary_encode(num, NUM_DIGITS):
    return np.array([num >> d & 1 for d in range(NUM_DIGITS)])[::-1]     #>>为移位符,num >> d & 1表示num的二进制向右移动d位,然后与1的二进制比较,相同的为1,不同的为0,最后转为十进制数字

device = torch.device('cuda'if torch.cuda.is_available() else 'cpu')

trX = torch.tensor([binary_encode(i, NUM_DIGITS) for i in range(101, 2**NUM_DIGITS)]).float().to(device)  #训练集:101~2^10-1
trY = torch.tensor([fizz_buzz_encoding(i) for i in range(101, 2**NUM_DIGITS)]).long().to(device)  #标签,用LabelEncoding


trX.shape, trY.shape


>>>(torch.Size([923, 10]), torch.Size([923]))
trX[:5], trY[:5]


>>> (tensor([[0., 0., 0., 1., 1., 0., 0., 1., 0., 1.],
             [0., 0., 0., 1., 1., 0., 0., 1., 1., 0.],
             [0., 0., 0., 1., 1., 0., 0., 1., 1., 1.],
             [0., 0., 0., 1., 1., 0., 1., 0., 0., 0.],
             [0., 0., 0., 1., 1., 0., 1., 0., 0., 1.]], device='cuda:0'),
     tensor([0, 1, 0, 0, 3], device='cuda:0'))

2、定义及训练模型:

  • 为了让我们的模型学会FizzBuzz这个游戏,我们需要定义一个损失函数,和一个优化算法。
  • 这个优化算法会不断优化(降低)损失函数,使得模型的在该任务上取得尽可能低的损失值。
  • 损失值低往往表示我们的模型表现好,损失值高表示我们的模型表现差。
  • 由于FizzBuzz游戏本质上是一个分类问题,我们选用Cross Entropyy Loss函数。
  • 优化函数我们选用Stochastic Gradient Descent。
import torch.nn as nn

HIDDEN = 100
learning_rate = 0.05
BATCH_SIZE = 128

model = nn.Sequential(                  
    nn.Linear(NUM_DIGITS, HIDDEN),
    nn.ReLU(),
    nn.Linear(HIDDEN, 4)
).to(device)
    
nn.init.normal_(model[0].weight)        #初始化参数
#nn.init.normal_(model[0].bias)
nn.init.normal_(model[2].weight)
#nn.init.normal_(model[2].bias)

loss_fn = nn.CrossEntropyLoss()        #损失函数为交叉熵
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)   #选用随机梯度下降

for epoch in range(10000):          
    for start in range(0, len(trX), BATCH_SIZE):       #这里因为使用了BATCH_SIZE,多出一个内循环
        end = start + BATCH_SIZE
        batchX = trX[start:end]
        batchY = trY[start:end]
        #forward pass
        y_pred = model(batchX)
        loss = loss_fn(y_pred, batchY)
        #backward pass
        optimizer.zero_grad()        #梯度清零
        loss.backward()              #反向传播
        optimizer.step()             #参数更新
    loss_epoch = loss_fn(model(trX), trY).item()
    print('epoch:',epoch, 'loss:', loss_epoch)        


>>> epoch: 0 loss: 7.251105308532715
    epoch: 1 loss: 6.035614967346191
    epoch: 2 loss: 5.345699787139893
    epoch: 3 loss: 5.131191730499268
    epoch: 4 loss: 4.703280448913574
    epoch: 5 loss: 4.4611406326293945
    epoch: 6 loss: 4.351914405822754
    epoch: 7 loss: 4.086514472961426
    epoch: 8 loss: 3.830378293991089
    epoch: 9 loss: 3.534430503845215
    epoch: 10 loss: 3.27980637550354
    ...
    epoch: 9991 loss: 0.006885749753564596
    epoch: 9992 loss: 0.006884231697767973
    epoch: 9993 loss: 0.006883607245981693
    epoch: 9994 loss: 0.006882120855152607
    epoch: 9995 loss: 0.006881153676658869
    epoch: 9996 loss: 0.006880468223243952
    epoch: 9997 loss: 0.006879052147269249
    epoch: 9998 loss: 0.00687815435230732
    epoch: 9999 loss: 0.006877521518617868

用训练好的模型玩fizzbuzz

testX = torch.tensor([binary_encode(i, NUM_DIGITS) for i in range(1, 101)]).float().to(device)
    
with torch.no_grad():
    testY = model(testX)

prediction = zip(range(1, 101), testY.max(1)[1].tolist())

nn_result = []
for (num, classes) in prediction:
    nn_result.append(fizz_buzz_decoding(num, classes))
nn_result





>>> ['1',
     '2',
     'fizz',
     'fizz',
     'buzz',
     'fizz',
     '7',
     '8',
     'fizz',
     'buzz',
     '11',
     'fizz',
     '13',
     '14',
     'fizz',
     '16',
     '17',
     'fizz',
     '19',
     'buzz',
     'fizz',
     '22',
     '23',
     'fizz',
     '25',
     '26',
     'fizz',
     '28',
     '29',
     'fizzbuzz',
     '31',
     'buzz',
     'buzz',
     'buzz',
     'buzz',
     'fizz',
     '37',
     '38',
     'fizz',
     '40',
     '41',
     'fizz',
     '43',
     '44',
     'fizzbuzz',
     '46',
     '47',
     'fizz',
     '49',
     'buzz',
     'fizz',
     '52',
     '53',
     'fizz',
     'buzz',
     '56',
     'fizz',
     '58',
     '59',
     'fizzbuzz',
     '61',
     '62',
     'fizz',
     '64',
     'buzz',
     'fizz',
     '67',
     'fizz',
     '69',
     'buzz',
     '71',
     'fizz',
     '73',
     '74',
     'fizzbuzz',
     '76',
     '77',
     'fizz',
     '79',
     'buzz',
     '81',
     '82',
     '83',
     'fizz',
     'buzz',
     '86',
     'fizz',
     '88',
     '89',
     'fizzbuzz',
     '91',
     '92',
     '93',
     '94',
     'buzz',
     'fizz',
     '97',
     'fizz',
     'fizz',
     'buzz']

correct = 0
for i in range(len(result)):
    if nn_result[i] == result[i]:
        correct += 1
accracy = correct/len(result)
accracy


>>> 0.88

后记

emmmmm…效果不算太好,可能模型太过于简单了。等学完后面的,再回来改改。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Go语言(也称为Golang)是由Google开发的一种静态强类型、编译型的编程语言。它旨在成为一门简单、高效、安全和并发的编程语言,特别适用于构建高性能的服务器和分布式系统。以下是Go语言的一些主要特点和优势: 简洁性:Go语言的语法简单直观,易于学习和使用。它避免了复杂的语法特性,如继承、重载等,转而采用组合和接口来实现代码的复用和扩展。 高性能:Go语言具有出色的性能,可以媲美C和C++。它使用静态类型系统和编译型语言的优势,能够生成高效的机器码。 并发性:Go语言内置了对并发的支持,通过轻量级的goroutine和channel机制,可以轻松实现并发编程。这使得Go语言在构建高性能的服务器和分布式系统时具有天然的优势。 安全性:Go语言具有强大的类型系统和内存管理机制,能够减少运行时错误和内存泄漏等问题。它还支持编译时检查,可以在编译阶段就发现潜在的问题。 标准库:Go语言的标准库非常丰富,包含了大量的实用功能和工具,如网络编程、文件操作、加密解密等。这使得开发者可以更加专注于业务逻辑的实现,而无需花费太多时间在底层功能的实现上。 跨平台:Go语言支持多种操作系统和平台,包括Windows、Linux、macOS等。它使用统一的构建系统(如Go Modules),可以轻松地跨平台编译和运行代码。 开源和社区支持:Go语言是开源的,具有庞大的社区支持和丰富的资源。开发者可以通过社区获取帮助、分享经验和学习资料。 总之,Go语言是一种简单、高效、安全、并发的编程语言,特别适用于构建高性能的服务器和分布式系统。如果你正在寻找一种易于学习和使用的编程语言,并且需要处理大量的并发请求和数据,那么Go语言可能是一个不错的选择。
Go语言(也称为Golang)是由Google开发的一种静态强类型、编译型的编程语言。它旨在成为一门简单、高效、安全和并发的编程语言,特别适用于构建高性能的服务器和分布式系统。以下是Go语言的一些主要特点和优势: 简洁性:Go语言的语法简单直观,易于学习和使用。它避免了复杂的语法特性,如继承、重载等,转而采用组合和接口来实现代码的复用和扩展。 高性能:Go语言具有出色的性能,可以媲美C和C++。它使用静态类型系统和编译型语言的优势,能够生成高效的机器码。 并发性:Go语言内置了对并发的支持,通过轻量级的goroutine和channel机制,可以轻松实现并发编程。这使得Go语言在构建高性能的服务器和分布式系统时具有天然的优势。 安全性:Go语言具有强大的类型系统和内存管理机制,能够减少运行时错误和内存泄漏等问题。它还支持编译时检查,可以在编译阶段就发现潜在的问题。 标准库:Go语言的标准库非常丰富,包含了大量的实用功能和工具,如网络编程、文件操作、加密解密等。这使得开发者可以更加专注于业务逻辑的实现,而无需花费太多时间在底层功能的实现上。 跨平台:Go语言支持多种操作系统和平台,包括Windows、Linux、macOS等。它使用统一的构建系统(如Go Modules),可以轻松地跨平台编译和运行代码。 开源和社区支持:Go语言是开源的,具有庞大的社区支持和丰富的资源。开发者可以通过社区获取帮助、分享经验和学习资料。 总之,Go语言是一种简单、高效、安全、并发的编程语言,特别适用于构建高性能的服务器和分布式系统。如果你正在寻找一种易于学习和使用的编程语言,并且需要处理大量的并发请求和数据,那么Go语言可能是一个不错的选择。
Go语言(也称为Golang)是由Google开发的一种静态强类型、编译型的编程语言。它旨在成为一门简单、高效、安全和并发的编程语言,特别适用于构建高性能的服务器和分布式系统。以下是Go语言的一些主要特点和优势: 简洁性:Go语言的语法简单直观,易于学习和使用。它避免了复杂的语法特性,如继承、重载等,转而采用组合和接口来实现代码的复用和扩展。 高性能:Go语言具有出色的性能,可以媲美C和C++。它使用静态类型系统和编译型语言的优势,能够生成高效的机器码。 并发性:Go语言内置了对并发的支持,通过轻量级的goroutine和channel机制,可以轻松实现并发编程。这使得Go语言在构建高性能的服务器和分布式系统时具有天然的优势。 安全性:Go语言具有强大的类型系统和内存管理机制,能够减少运行时错误和内存泄漏等问题。它还支持编译时检查,可以在编译阶段就发现潜在的问题。 标准库:Go语言的标准库非常丰富,包含了大量的实用功能和工具,如网络编程、文件操作、加密解密等。这使得开发者可以更加专注于业务逻辑的实现,而无需花费太多时间在底层功能的实现上。 跨平台:Go语言支持多种操作系统和平台,包括Windows、Linux、macOS等。它使用统一的构建系统(如Go Modules),可以轻松地跨平台编译和运行代码。 开源和社区支持:Go语言是开源的,具有庞大的社区支持和丰富的资源。开发者可以通过社区获取帮助、分享经验和学习资料。 总之,Go语言是一种简单、高效、安全、并发的编程语言,特别适用于构建高性能的服务器和分布式系统。如果你正在寻找一种易于学习和使用的编程语言,并且需要处理大量的并发请求和数据,那么Go语言可能是一个不错的选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值