我们来看一下向量内积和矩阵乘积的相关内容。首先,向量内积可以表示为
这里假设有 x = ( x 1 , … , x n ) \pmb{x=}(x_1,…,x_n) x=x=(x1,…,xn) 和 y = ( y 1 , … , y n ) \pmb{y=}(y_1,…,y_n) y=y=(y1,…,yn) 两个向量。此时,如式 (1.1) 所示,向量内积是两个向量对应元素的乘积之和。
向量内积直观地表示了“两个向量在多大程度上指向同一方向”。如果限定向量的大小为 1,当两个向量完全指向同一方向时,它们的向量内积是 1。反之,如果两个向量方向相反,则内积为 -1。
下面再来看一下矩阵乘积。矩阵乘积可以按照图 1-5 所示的步骤计算。
如图 1-5 所示,矩阵乘积通过“左侧矩阵的行向量(水平方向)”和“右侧矩阵的列向量(垂直方向)”的内积(对应元素的乘积之和)计算得出。此时,计算结果保存在新矩阵的对应元素中。比如, 的第 1 行和 的第 1 列的结果保存在第 1 行第 1 列的元素中, 的第 2 行和 的第 1 列的结果保存在第 2 行第 1 列的元素中。
现在,我们用 Python 实现一下向量内积和矩阵乘积。为此,可以利用 np.dot()。
向量内积
a = np.array([1, 2, 3])
b = np.array([4, 5, 6])
np.dot(a, b)
32
矩阵乘积
A = np.array([[1, 2], [3, 4]])
B = np.array([[5, 6], [7, 8]])
np.dot(A, B)
array([[19, 22],[43, 50]])
如上所示,向量内积和矩阵乘积中都使用了 np.dot()。当 np.dot(x, y) 的参数都是一维数组时,计算向量内积。当参数都是二维数组时,计算矩阵乘积.
除了这里看到的 np.dot() 方法外,NumPy 还有很多其他的进行矩阵计算的便捷方法。如果能熟练掌握这些方法,神经网络的实现就会更顺利。