一般来说,会规划一个类来实现MLP里的相关函数。
由于一个网络的实现必然会存在训练和测试两个阶段,因此,train和test函数是类中最重要的函数,在train中实现前向传播和后向传播来更新参数。而在test中则是利用参数前向得到统计后的测试结果。
其次,还会有run函数,这个函数就好比是一个demo,用于判断某张图像的测试结果。
剩下的,就是与类的初始化函数和一些计算函数了。
class SentimentNetwork:
def __init__(self, reviews,labels,hidden_nodes = 10, learning_rate = 0.1):
self.pre_process_data(reviews, labels)
self.init_network(len(self.review_vocab),hidden_nodes, 1, learning_rate)
def pre_process_data(self, reviews, labels):
def init_network(self, input_nodes, hidden_nodes, output_nodes, learning_rate):
def update_input_layer(self,review):
def get_target_for_label(self,label):
def sigmoid(self,x):
def sigmoid_output_2_derivative(self,output):
def train(self, training_reviews, training_labels):
def test(self, testing_reviews, testing_labels):
def run(self, review):
其中的反向传播算法分为3个步骤
(1)根据输出层的误差
δ0
来反向推导隐藏层的误差,注意,输入层是没有误差的。其公式如下,其实现可用np.dot():
error=∑kwjkδ0k
(2)根据
error
来计算其偏差导数,其中的
f(hj)
是对应节点输出值的导数。注意:此处的实现是对应点相乘
Δ=error∗f,(hj)
(3)通过前两步所得的向量来与向量x使用np.dot()来构成x_num*hidden_num的矩阵结果
ΔW=ηΔx