![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习
文章平均质量分 81
初窺门径
What R U 嘟鹰 now?
展开
-
本地下载预训练模型(resnet/densenet/vgg等url地址)
多种预训练模型原创 2024-07-15 20:55:12 · 204 阅读 · 0 评论 -
图解transformer中的自注意力机制(备忘)
注意力机制(attention mechanism)是Transformer模型中的重要组成部分。Transformer是一种基于自注意力机制(self-attention)的神经网络模型,广泛应用于自然语言处理任务,如机器翻译、文本生成和语言模型等。本文介绍的自注意力机制是Transformer模型的基础,在此基础之上衍生发展出了各种不同的更加高效的注意力机制,所以深入了解自注意力机制,将能够更好地理解Transformer模型的设计原理和工作机制,以及如何在具体的各种任务中应用和调整模型。原创 2023-12-11 13:59:12 · 152 阅读 · 0 评论 -
预训练、微调和上下文学习(备忘)
语言模型通过预训练、微调和上下文学习的结合来学习。预训练捕获一般的语言理解,微调专门针对特定任务的模型,而上下文学习包含特定任务的指令以提高性能。理解这些方法可以深入了解语言模型学习过程中涉及的不同阶段和技术,从而使它们能够有效地应用于各种自然语言处理任务。文章出处,如侵吾删。原创 2023-12-11 13:52:23 · 110 阅读 · 0 评论 -
数据科学工作的20个Pandas函数(备忘)
以上这20个pandas函数,绝对可以帮助我们万行80%以上的任务,我们这里只是简单的总结,想group,merge等参数比较多并且常用的函数可以通过pandas的文档进一步熟悉,这将对我们的工作有很大的帮助。原创 2023-12-11 13:41:15 · 214 阅读 · 0 评论 -
XGBoost和LightGBM时间序列预测对比(备忘)
xgboost 和 LightGBM 都是优秀的梯度提升框架,它们各自具有一些独特的优点和缺点,选择哪一种算法应该根据实际应用场景和数据集的特征来决定。如果数据集中缺失值较多,可以选择 xgboost。如果需要处理大规模数据集并追求更快的训练速度,可以选择 LightGBM。如果需要解释模型的特征重要性,xgboost 提供了更好的特征重要性评估方法,并且如果需要更加鲁棒的模型,可以优先选择xgboost。原创 2023-12-11 13:48:42 · 409 阅读 · 0 评论