Iris_wondering
码龄9年
关注
提问 私信
  • 博客:150,065
    150,065
    总访问量
  • 61
    原创
  • 64,560
    排名
  • 3,106
    粉丝
  • 276
    铁粉
  • 学习成就

个人简介:CS PhD 在读

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2015-11-28
博客简介:

月亮不知道的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    5
    当前总分
    1,040
    当月
    19
个人成就
  • 获得276次点赞
  • 内容获得17次评论
  • 获得423次收藏
  • 代码片获得1,225次分享
创作历程
  • 15篇
    2024年
  • 5篇
    2023年
  • 7篇
    2022年
  • 19篇
    2021年
  • 15篇
    2020年
成就勋章
TA的专栏
  • 未分类
    13篇
  • pytorch
    6篇
  • ubuntu
    5篇
  • Nvidia Jetson
    5篇
  • clip
    1篇
  • pycharm
    4篇
  • c++
    2篇
兴趣领域 设置
  • 人工智能
    opencv计算机视觉深度学习tensorflowpytorch
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

182人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

大模型调优技术:Parameter-efficient transfer learning

提示微调(Prompt Tuning)通过在输入点或中间层前置一组可学习的提示 tokens,并在微调过程中只优化这些 tokens 的参数,从而实现参数高效的微调方法。在微调过程中,只更新这些适配器模块的参数,而 BERT 模型的参数保持不变。在微调过程中,只更新这些低秩矩阵的参数,而原始权重矩阵保持不变。更新适配器参数:只更新适配器模块的参数,使模型能够适应特定的下游任务。插入适配器模块:在预训练模型的每一层之间插入适配器模块。冻结原模型参数:在微调过程中,预训练模型的参数保持不变。
原创
发布博客 2024.06.19 ·
904 阅读 ·
16 点赞 ·
0 评论 ·
9 收藏

ScanNet 数据集常见文件的作用极其读取方式

ScanNet 数据集是一个大规模的 RGB-D 视频数据集,它包含了丰富的三维场景理解任务所需的数据,如三维物体分类、语义体素标签和 CAD 模型检索等。和.sens和和.txt文件(如下面进行详细的解释。
原创
发布博客 2024.04.22 ·
2122 阅读 ·
15 点赞 ·
2 评论 ·
28 收藏

详解混合精度训练(Mixed Precision Training)

混合精度训练(Mixed Precision Training)是一种在深度学习中提高训练速度和减少内存占用的技术。在PyTorch中,通过使用半精度浮点数(16位浮点数,FP16)和单精度浮点数(32位浮点数,FP32)的组合。
原创
发布博客 2024.04.17 ·
6453 阅读 ·
25 点赞 ·
0 评论 ·
25 收藏

大模型训练如何节省显存 - DeepSpeed ZeRO

训练大模型需要巨大的资源,单卡显存已经越来越难以满足存放整个模型,因此诞生了大模型训练技术,典型的如 DeepSpeed ZeRO 和 FairScale 的完全分片数据并行(Fully Sharded Data Parallel, FSDP)技术,其允许在数据并行进程之间分片模型的参数、梯度和优化器状态,并同时仍然保持数据并行的简单性。DeepSpeed的Zero Redundancy Optimizer(ZeRO)通过在多个GPU之间分割模型的权重、梯度和优化器状态,显著减少了每个GPU所需的内存量。
原创
发布博客 2024.04.17 ·
1176 阅读 ·
3 点赞 ·
0 评论 ·
3 收藏

梯度检查点(Gradient Checkpointing)的解释和举例

梯度检查点(Gradient Checkpointing)是一种深度学习优化技术,它的目的是减少在神经网络训练过程中的内存占用。在训练深度学习模型时,我们需要存储每一层的激活值(即网络层的输出),这样在反向传播时才能计算梯度。但是,如果网络层数非常多,这些激活值会占用大量的内存。梯度检查点技术通过只在前向传播时保存部分激活值的信息,而在反向传播时重新计算其他激活值,从而减少了内存的使用。
原创
发布博客 2024.04.17 ·
2345 阅读 ·
6 点赞 ·
0 评论 ·
6 收藏

pytorch 多进程数据加载 - 序列化数据/serialize_data

OpenMMLab项目中构建数据集的基础类BaseDataset类的时候,对多进程数据加载有一个优化,叫做 ‘‘’序列化’。先看代码部分在分布式训练中,如果每个GPU rank都加载完整的data_list,那么确实会导致内存的重复使用。为了解决这个问题,serialize_data属性被设置为True时,可以通过序列化数据来节省内存,这样每个工作进程就可以共享主进程的RAM,而不是各自复制一份数据。
原创
发布博客 2024.04.15 ·
955 阅读 ·
15 点赞 ·
0 评论 ·
14 收藏

bash: anaconda3/lib/libtinfo.so.6: no version information available (required by bash)

我在编译安装nccl 库的时候遇到的问题。代替 Anaconda 的。
原创
发布博客 2024.03.19 ·
2983 阅读 ·
8 点赞 ·
0 评论 ·
5 收藏

详解深度学习中的教师-学生模型(Teacher- Student Model)

在知识蒸馏时,我们通常不会仅让学生模型去模仿最高概率的那个类别,而是让它学习整个教师模型的“软化”概率分布,比如通过提高温度参数(temperature scaling)来使分布更加平滑,分布中的每个类别的概率都将被赋予更高的相对重要性,即使它们不是最大概率的类别。,在一个图像分类任务中,教师模型可能是一个大型的预训练神经网络,它对输入图片计算出各类别的概率分布,如对于10类问题,不仅预测出哪个类别最有可能是正确的,还给出所有类别对应的概率值。学生模型则根据这些软标签进行学习,从而模仿教师模型的决策过程。
原创
发布博客 2024.03.08 ·
14166 阅读 ·
59 点赞 ·
0 评论 ·
138 收藏

自回归模型的损失函数的shift操作

shift这里是对齐了序列长度之后的标签数据与预测logits进行交叉熵损失计算。由于是自回归模型,因此需要对logits和labels进行shift操作,使得每个位置的预测仅对应下一个位置的真实标签。
原创
发布博客 2024.03.07 ·
1361 阅读 ·
11 点赞 ·
2 评论 ·
11 收藏

VSCode debug torchrun方式的多卡python代码

【代码】VSCode debug torchrun方式的多卡python代码。
原创
发布博客 2024.03.05 ·
858 阅读 ·
3 点赞 ·
0 评论 ·
3 收藏

llama权重下载

【代码】llama权重下载。
原创
发布博客 2024.02.27 ·
373 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

自动更改由VSCode调试器创建的默认launch.json文件

修改下面的部分。
原创
发布博客 2024.02.16 ·
664 阅读 ·
3 点赞 ·
0 评论 ·
1 收藏

VSCode debug ddp方式的多卡python代码

【代码】VSCode debug ddp方式的多卡python代码。
原创
发布博客 2024.01.19 ·
623 阅读 ·
9 点赞 ·
0 评论 ·
10 收藏

huggingface 本地模型加载报错 Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_mo

【代码】huggingface 本地模型加载报错 Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_mo。
原创
发布博客 2024.01.15 ·
2102 阅读 ·
8 点赞 ·
1 评论 ·
7 收藏

离线加载huggingface模型

huggingface 本地加载模型阅读里面的函数,可以知道下载的文件 url 和存储位置根据输出可以知道是。
原创
发布博客 2024.01.15 ·
1214 阅读 ·
9 点赞 ·
0 评论 ·
11 收藏

python 编译安装的包找不到

因此,解决方法是把git clone且编译之后的文件夹A/A复制到anaconda路径。我git clone 之后编译安装了一个包A,但是A没法import。而查看A的时候发现在anaconda路径。
原创
发布博客 2023.12.18 ·
527 阅读 ·
7 点赞 ·
0 评论 ·
9 收藏

CLIPTokenizer.from_pretrained本地加载

这个网页把所有文件下载下来,传到.cache/huggingface/transformers下,然后把代码改。但我连不到外网没办法直接下载,所以去。
原创
发布博客 2023.11.28 ·
1220 阅读 ·
1 点赞 ·
1 评论 ·
4 收藏

【clip源码阅读】VisionTransformer

【代码】【clip源码阅读】VisionTransformer。
原创
发布博客 2023.10.30 ·
539 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

nn.Linear和kernel=1的nn.Conv的区别

nn.Linear和kernel=1的nn.Conv的区别
原创
发布博客 2023.02.17 ·
335 阅读 ·
0 点赞 ·
1 评论 ·
0 收藏

vscode python代码中出现红色波浪线

解决vscode python错误的错误波浪线的问题记录
原创
发布博客 2023.02.17 ·
543 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多