深度学习入门2:自然语言处理(第一章 神经网络的复习/代码+总结)

本文深入浅出地介绍了神经网络的推理过程,从向量和矩阵的复习开始,详细阐述了神经网络中推理的全貌,包括全连接层(Affine层)和Sigmoid层的实现,并通过Python代码实现层的类化和正向传播。最后,讨论了神经网络学习中的损失函数——交叉熵误差在多类别分类问题中的应用。
摘要由CSDN通过智能技术生成

1.1 数学和python的复习

1.1.1向量和矩阵总结:

代码实现:D:\py\pythonProject\0自学\LM\第一章\1向量和矩阵.py

import numpy as np

x = np.array([1,2,3])
print(x.__class__)#输出类名 np.ndarray 类
print(x.shape)#np.ndarray 类 实例变量 shape 和 ndim shape 表示多维数组的 形状
print(x.ndim)#np.ndarray 类 实例变量 shape 和 ndim ndim 表示维数

y = np.array([[1,2,3],[4,5,6]])
print(y.__class__)#输出类名 np.ndarray 类
print(y.shape)#np.ndarray 类 实例变量 shape 和 ndim shape 表示多维数组的 形状
print(y.ndim)#np.ndarray 类 实例变量 shape 和 ndim ndim 表示维数

z = np.array([[[1,2,3],[1,2,3]],[[1,2,3],[4,5,6]]])
print(z)
print(z.__class__)#输出类名 np.ndarray 类
print(z.shape)#np.ndarray 类 实例变量 shape 和 ndim shape 表示多维数组的 形状
print(z.ndim)#np.ndarray 类 实例变量 shape 和 ndim ndim 表示维数


'''
矩阵对应元素运算
'''

W= np.array([[1, 2, 3], [4, 5, 6]])
x= np.array([[0, 1, 2], [3, 4, 5]])

#print(W,x,W+x,W*x,end='')结束换行
print(W,x,W+x,W*x,sep="\n")#多输出换行



'''
广播 因为 NumPy 有广播功能,所以可以智能地执行不同形状的数 组之间的运算
'''

A = np.array([[1, 2], [3, 4]])
print(A,A*10,sep="\n")

b = np.array([10, 20])
print(A,A+b,sep="\n")


'''
 向量内积和矩阵乘积
'''

# 向量内积
a = np.array([1, 2, 3])
b = np.array([4, 5, 6])
print(np.dot(a,b))

# 矩阵乘积
A = np.array([[1, 2], [3, 4]])
B = np.array([[5, 6], [7, 8]])
print(A,B,np.dot(A,B),sep="\n")

1.2 神经网络的推理

神经网络中进行的

  • 16
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值