c-bow 和 skip-gram 直观区别如 图所示。
但真实的区别是:在计算一个 term 的向量时, c-bow是将该term 的 window内所有的term累加后进行计算,而skip-gram却是将依次使用每一个term进行计算。
有点类似 Batch gradient descent 和 Stochastic gradient descent 的区别
c-bow 和 skip-gram 直观区别如 图所示。
但真实的区别是:在计算一个 term 的向量时, c-bow是将该term 的 window内所有的term累加后进行计算,而skip-gram却是将依次使用每一个term进行计算。
有点类似 Batch gradient descent 和 Stochastic gradient descent 的区别