关于词向量

转自:https://blog.csdn.net/xpy870663266/article/details/101849044
很好的一篇博客,总结的很好,很全面。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一份使用tensorflow2.0训练词向量的示例代码: ``` import tensorflow as tf from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.preprocessing.sequence import pad_sequences # 输入数据 sentences = [ 'I love coding', 'Coding is fun', 'Coding is my passion', 'I enjoy coding', 'Coding is awesome' ] # 设置参数 vocab_size = 1000 # 词汇量大小 embedding_dim = 16 # 词向量维度 max_length = 10 # 句子最大长度 trunc_type='post' # 超过最大长度后截断位置 padding_type='post' # 不足最大长度时填充位置 oov_tok = "<OOV>" # 未知单词填充符 # 创建分词器 tokenizer = Tokenizer(num_words=vocab_size, oov_token=oov_tok) tokenizer.fit_on_texts(sentences) word_index = tokenizer.word_index # 创建序列 sequences = tokenizer.texts_to_sequences(sentences) padded_sequences = pad_sequences(sequences, maxlen=max_length, padding=padding_type, truncating=trunc_type) # 构建模型 model = tf.keras.Sequential([ tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=max_length), tf.keras.layers.Flatten(), tf.keras.layers.Dense(6, activation='softmax') ]) # 编译模型 model.compile(loss='sparse_categorical_crossentropy', optimizer='adam', metrics=['accuracy']) # 训练模型 model.fit(padded_sequences, epochs=50) # 获取词向量矩阵 embedding_layer = model.layers[0] weights = embedding_layer.get_weights()[0] # 输出词向量 for word, i in word_index.items(): if i < vocab_size: print(word, weights[i]) ``` 该代码将输入数据进行分词并转化为序列,然后使用tensorflow2.0构建了一个简单的神经网络模型,通过训练该模型得到词向量矩阵。最后输出了每个单词对应的词向量

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值