深度学习
你是兰亭先生的序
及时止损,疗伤良药。
读书参禅,日进一步。
展开
-
tf.nn.embedding_lookup 举例说明,简单易懂
#tf.nn.embedding_lookup:可以把这个函数的数据切片原理想象成numpy的花式索引。 #index_1 = tf.Variable([1, 2, 3, 0], tf.int32),以这个为例,就是按顺序,逐行取出a矩阵中第2,3,4,1,行 #index_2 = tf.Variable([[1, 2, 3, 0], [4, 1, 3, 3], [4, 1, 3, 3]], t...原创 2019-03-13 14:37:06 · 253 阅读 · 0 评论 -
bert论文学习之简评
Pre-training of Deep Bidirectional Transformers for Language Understanding 对于现有的NLP任务,我们这样说似乎是无可厚非的,那就是对文本抽象出某种合适的数值表征,是十分重要的。 因为不同的表征所内涵的语义信息,段落信息是不同的;在我们熟知的语言模型中,Word2vec,elmo都是很出色的,这两者分别用浅层神经网络和双...原创 2019-07-04 19:05:20 · 240 阅读 · 0 评论