为何核心是寻优Wi权重系数
只有一组变量,便是权重系数Wi,我们所做的一切都是在寻找使误差Error最小的一组权重系数Wi,各种算法(例如梯度下降)都是用于寻优的工具,这些工具快与慢,适用于处理的数据类型都需要具体问题具体分析,但是这所有的最后都应回归到“最适合”的一组权重系数Wi中去,只有这样,构建的神经网络才能被认为优越,因为它从样本中学习到了它的最佳水平。
一次迭代代码实现
以下是利用梯度下降做的一次对于权重系数Wi的迭代,目的是为了展示一次迭代的流程,通过多次的迭代之后,想必会有好的结果。
import numpy as np
def sigmoid(x):
"""
Calculate sigmoid
"""
return 1/