- 博客(8)
- 收藏
- 关注
原创 O2O 商铺食品安全相关评论发现项 总结
我认为预训练对于分数的影响还是很大的,在我尝试的几个不同的预训练模型中,在参数等其他变量都相同的情况下,几个预训练模型对结果的影响还是很明显的(分数最低为0.9108,最高为0.9400)。在文章多分类下的召回率中,分类任务中常见的四种指标:包括准确率、精确率、召回率和F值,top-K准确率就是用来计算预测结果中概率最大的前K个结果包含正确标签的占比,Top-K准确率考虑的是预测结果中最有可能的K个结果是否包含有真实标签,如果包含则算预测正确,如果不包含则算预测错误。
2023-10-08 13:38:32
320
1
原创 O2O优惠券使用预测 阿里天池新人实战赛 总结
首先对提供的数据进行简单的预处理,接着时间窗口划分法将数据集进行划分和打标,最后进行特征工程处理,即特征提取和模型建立与参数优化,进而完成整个数据的预测。目标:预测投放的优惠券是否核销(使用)实质:分类问题,也就是:是/否消费优惠券首先需要说一说GBDT,它是一种基于boosting增强策略的加法模型,训练的时候采用前向分布算法进行贪婪的学习,每次迭代都学习一棵CART树来拟合之前 t-1 棵树的预测结果与训练样本真实值的残差。
2023-10-08 13:37:17
952
1
原创 《Causal intervention for leveraging popularity bias in recommendation》在推荐中利用受欢迎程度偏差的因果干预
推荐系统为用户提供个性化的信息搜索服务,在电子商务、新闻门户、内容分享平台、社交媒体等广泛的网络应用中发挥着越来越重要的作用。然而,该系统面临着人气偏见的问题,这是站在个性化的对立面。一方面,用户-物品交互数据在物品受欢迎程度上通常呈现长尾分布——头部物品占据了大部分交互,而大多数物品受到的关注相对较少[2,30]。另一方面,在这种长尾数据上训练的推荐模型不仅继承了这种偏差,而且还放大了这种偏差,使得受欢迎的项目主导了最热门的推荐[1,20]。
2023-10-08 13:34:01
267
1
原创 《Leveraging Explicit Lexico-logical Alignments in Text-to-SQL Parsing》利用文本到sql解析中的显式词法逻辑对齐
利用显示词汇逻辑对齐提高解析性能,提高泛化能力确定可能的短语级对齐,并将他们作为附加上下文注入—>对准Text-to-SQL旨在将自然语言问题解析为SQL查询,这在提供访问大型数据库的简单接口方面很有价值。以前的工作已经发现,利用词汇逻辑对齐非常有助于提高解析性能。然而,目前基于注意的方法只能在token级对这种对齐进行建模,泛化能力不理想。在本文中,我们提出了一种利用显式词汇逻辑对齐的新方法。它首先确定可能的短语级对齐,并将它们作为附加上下文注入,以指导解析过程。
2023-03-09 14:54:38
151
tf.compat.v1.variable_scope 报错,如何解决?
2023-04-04
TA创建的收藏夹 TA关注的收藏夹
TA关注的人