神经网络—张量运算
深度神经网络学到的所有变换可以简化为数值数据张量上的一些张量运算
1.逐元素运算
relu运算和加法都是逐元素的运算,即该运算独立地应用于张量中的每个元素。这些运算非常适合大规模并行实现。可通过for循环来实现。
下列代码为对逐元素relu运算的简单实现
def naive_add(x,y):
assert len(x.shape)==2#x,y为2D张量
assert x.shape==y.shape
x=x.copy()
for i in range(x.sh
原创
2022-03-17 14:29:12 ·
1375 阅读 ·
0 评论