- 博客(5)
- 收藏
- 关注
原创 昇思 25 天学习打卡营第 17 天 | K近邻算法实现红酒聚类
K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。
2024-07-15 15:56:33
526
原创 昇思 25 天学习打卡营第 16 天 | Transformer图像分类
近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大地促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶。在不依赖卷积操作的情况下,依然可以在图像分类任务上达到很好的效果。
2024-07-14 21:35:04
591
原创 昇思 25 天学习打卡营第 15 天 | SSD目标检测
SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP(mean Average Precision)以及59FPS;对于512x512的网络,达到了76.9%mAP ,超越当时最强的Faster RCNN(73.2%mAP)。具体可参考论文[1]。
2024-07-12 20:51:25
1010
原创 Task3: Baseline2笔记 #AI夏令营 #Datawhale #夏令营
Task3:进阶 baseline2【微调方向】 + 知识点讲解,链接如下:Docs。
2024-07-06 20:00:36
729
原创 大模型技术方向Task1笔记 #AI夏令营 #Datawhale #夏令营
实践步骤:跑通baseline → 尝试个人idea→尝试进阶baseline。
2024-07-02 21:27:15
930
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人