张量
import torch
a=torch.randn(2,3)
print(a.type)
print(isinstance(a,torch.FloatTensor))
#标量
m=torch.tensor(1.0)
n=torch.tensor(1.3)
#随机创建一个0-1的张量
x=torch.rand(5,5)
print(x)
#创建全为0的张量
y=torch.zeros(5,5,dtype=torch.float32)
print(y)
#使用数据直接来创建张量
z=torch.zeros([5,5],dtype=torch.float32)
print(z)
z1=z.new_zeros(5,3)
h=torch.rand_like(z1)
print(z1)
print(h)
#观察tensor的维度信息
print(z1.size())
#一些简单的运算
q=torch.tensor(1)
w=torch.tensor(3)
#方式一
e=q+w
#方式二
e=torch.add(q,w)
print(e)
#方式三
result=torch.empty(1)
torch.add(q,w,out=result)
#方式四
print(q.add_(w))
神经网络基础:
上图中每个圆圈都是一个神经元,每条线表示神经元之间的连接。我们可以看到,上面的神经元被分成了多层,层与层之间的神经元有连接,而层内之间的神经元没有连接。
神经元也叫做感知器。
可以看到,一个感知器有如下组成部分:
神经网络其实就是按照一定规则连接起来的多个神经元。
输入向量的维度和输入层神经元个数相同
第N层的神经元与第N-1层的所有神经元连接,也叫 全连接
上图网络中最左边的层叫做输入层,负责接收输入数据;最右边的层叫输出层,可以有多个输出层。我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层,因为它们对于外部来说是不可见的。
而且同一层的神经元之间没有连接
并且每个连接都有一个权值,