课堂提问 在2层简单神经网络中,W1和W2有什么含义吗? 答:W1依然可以看成是我们学习到的线性分类器中的各种各样的模板,而 h h h 表示这些模板的得分,W2将这些模板得分组合起来形成新的复杂模板。 例如上面这个例子,假设我们既有头朝左的马,又有头朝右的马,那么对于一匹头朝左的马,可能一个模板分高一个模板分低,然后取 m a x max ma