自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 多示例学习中的损失函数选择

在选择损失函数时,通常需要考虑问题的特性、数据分布以及模型的输出。在多示例学习中,特别要注意袋的标签是通过其内部示例的某种组合方式得到的,损失函数需要能够处理这种袋级别标签与示例级别标签之间的关系。在多示例学习中,损失函数的选择是关键的,因为它直接影响着模型的训练和性能。可以根据具体问题的特点设计定制的损失函数,考虑到多示例学习中示例级别标签的未知性。

2023-12-15 19:43:24 425

原创 多示例学习的原理,以及实现逻辑

是一种的变体,它的主要特点是训练集被组织成“袋”(bag)的形式,而不是单个实例的形式。每个袋中包含多个示例,而袋被标记为正类别或负类别。这使得多示例学习适用于一些问题,其中整体的标签仅仅基于某些示例的存在与否,而不需要为每个示例提供明确的标签。

2023-12-15 19:30:06 906

原创 自监督和无监督的区别

在自监督学习中,模型从原始数据中学习,通过将数据进行转换或处理,生成与原始数据相关的任务,然后使用这些生成的任务来训练模型。- 自监督学习的目标是让模型学会表示数据的特征或结构,例如图像中的上下文关系、文本中的语言模型预测等,而无需显式的标签。- 无监督学习是一种机器学习范式,其中模型试图从未标记的数据中发现数据的内在结构或模式,而不依赖于明确的标签或任务。- 自监督学习是无监督学习的一个特定子集,它关注于使用数据自动生成任务或标签,并通过这些任务来学习数据的特征或结构。

2023-11-16 21:36:40 1938 1

原创 Python中 sys.argv[1:]

中,可以在脚本中进行进一步的处理和使用。这在命令行工具和脚本中经常用于接受用户传递的参数,以便根据参数执行不同的操作或配置脚本的行为。:这是 Python 中的切片操作,表示从列表中的第二个元素开始(索引为1),取到列表的末尾(包括最后一个元素)的所有元素。用于获取从命令行传递给脚本的所有参数,而不包括脚本文件的名称。是一个 Python 中用于获取命令行参数的表达式。通常是脚本文件的名称,而后续元素则是从命令行传递给脚本的参数。模块中的一个列表,它包含了命令行参数的信息。:这是 Python 的。

2023-11-16 17:55:51 1129 1

原创 使用scp命令将文件下载至本地, 报 no such file or directory的解决办法

因为服务器找不到本地路径所以报错,因此运行下载命令时应该在。从服务器下载文件到本地计算机时,遇到找不到本地路径的问题。如果是下载文件夹在scp后面加 -r。

2023-11-15 13:21:10 2927 3

原创 Linux服务器基本操作

上传文件夹到服务器 (包括文件夹本身):在本地上传不要去服务器上传,服务器找不到本地路径。scp -r 本地文件夹路径 用户名@IP地址:服务器地址。查看home下的各个文件: cd home/(打开)查看GPU使用情况: nvidia-smi。进入指定目录: cd 目录路径。回退文件目录: cd ..查看当前路径: pwd。查看目录下的所有文件: ls。

2023-11-14 21:22:23 68

google-vit-base-patch16-224.rar

用于Vision Transformer的预训练模型,来源于huagging face。 Google ViT-Base-Patch16-224是一个基于Vision Transformer(ViT)的深度学习模型。该模型由Google的研究人员开发,用于图像分类和其他视觉任务。 在ViT模型中,图像被分割成一系列固定大小的块(或“patches”),然后这些块被线性嵌入到一个高维空间中。这些嵌入向量随后被输入到一个标准的Transformer架构中,该架构最初是为自然语言处理任务设计的,但已被成功应用于各种视觉任务。 Google ViT-Base-Patch16-224的具体参数如下: 模型大小:Base(基础版),这意味着它使用了一个相对较小的Transformer模型。 Patch大小:16x16,这意味着图像被分割成16x16像素的块。 输入图像大小:224x224,这是模型期望的输入图像大小(在预处理阶段,图像可能会被缩放到这个大小)。

2024-03-03

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除