nlp fasttext

fasttext用于词向量和文本分类,使用词袋以及n-gram袋表征语句

n-gram实现

    def biGramHash(sequence, t, buckets):
        t1 = sequence[t - 1] if t - 1 >= 0 else 0
        return (t1 * 14918087) % buckets

    def triGramHash(sequence, t, buckets):
        t1 = sequence[t - 1] if t - 1 >= 0 else 0
        t2 = sequence[t - 2] if t - 2 >= 0 else 0
        return (t2 * 14918087 * 18408749 + t1 * 14918087) % buckets

n-gram和CBOW很相似都是通过周边的词预测,只不过n-gram只一边。

model

class Model(nn.Module):
    def __init__(self, config):
        super(Model, self).__init__()
        if config.embedding_pretrained is not None:
            self.embedding = nn.Embedding.from_pretrained(config.embedding_pretrained, freeze=False)
        else:
            self.embedding = nn.Embedding(config.n_vocab, config.embed, padding_idx=config.n_vocab - 1)
        self.embedding_ngram2 = nn.Embedding(config.n_gram_vocab, config.embed)
        self.embedding_ngram3 = nn.Embedding(config.n_gram_vocab, config.embed)
        self.dropout = nn.Dropout(config.dropout)
        self.fc1 = nn.Linear(config.embed * 3, config.hidden_size)
        # self.dropout2 = nn.Dropout(config.dropout)
        self.fc2 = nn.Linear(config.hidden_size, config.num_classes)

    def forward(self, x):
        out_word = self.embedding(x[0])
        out_bigram = self.embedding_ngram2(x[2])
        out_trigram = self.embedding_ngram3(x[3])
        out = torch.cat((out_word, out_bigram, out_trigram), -1)
        out = out.mean(dim=1)
        out = self.dropout(out)
        out = self.fc1(out)
        out = F.relu(out)
        out = self.fc2(out)
        return out

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
FastText 是一个用于文本分类和句子表示的强大工具,它使用了简单的神经网络模型,并结合了信息级层次的表示方法来建模文本。现在让我们来看一下如何使用 FastText 处理亚马逊评价数据集。 首先,我们需要下载并准备亚马逊评价数据集。数据集通常包含一系列已标记的评价文本和对应的标签。我们可以使用 pandas 读取数据集文件,并进行必要的预处理步骤,如数据清洗、分词和去除停用词等。 接下来,我们需要将数据集分成训练集和测试集。我们可以使用 sklearn 的 train_test_split 函数将数据集按照一定比例划分为训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能。 在数据准备好之后,我们可以开始使用 FastText 创建一个文本分类器。我们可以设置模型的超参数,如学习率、维度和训练迭代次数等。然后,我们可以使用 fit 函数训练模型,传入训练集和对应的标签。 训练完成后,我们可以使用 predict 函数对测试集进行预测,并将预测结果与真实标签进行比较,以评估模型的性能。常用的评估指标包括准确率、召回率和 F1 分数等。我们还可以使用混淆矩阵来可视化分类结果。 除了文本分类,FastText 还可以用于句子表示。我们可以使用 FastText 提供的函数将文本转换为向量表示,并进行对比、聚类等任务。 总之,FastText 是一个强大的工具,适用于处理亚马逊评价数据集。通过合适的数据预处理和模型调参,我们可以建立一个高性能的文本分类器。它还可以用于句子表示,可以帮助我们解决更多的自然语言处理问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小涵涵

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值