小殊小殊
码龄16年
关注
提问 私信
  • 博客:1,129,804
    社区:5,134
    动态:10,828
    视频:66,478
    1,212,244
    总访问量
  • 101
    原创
  • 6,464
    排名
  • 48,165
    粉丝
  • 2,173
    铁粉
  • 学习成就

个人简介:为人在世 幸遇升平 自当立一番好言 行一番好事业

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:天津市
  • 加入CSDN时间: 2009-03-22
博客简介:

xian0710830114的专栏

查看详细资料
  • 原力等级
    成就
    当前等级
    8
    当前总分
    6,426
    当月
    63
个人成就
  • 人工智能领域新星创作者
  • 获得2,326次点赞
  • 内容获得809次评论
  • 获得7,985次收藏
  • 代码片获得11,680次分享
创作历程
  • 19篇
    2024年
  • 20篇
    2023年
  • 27篇
    2022年
  • 39篇
    2021年
  • 2篇
    2020年
  • 1篇
    2014年
成就勋章
TA的专栏
  • 大模型
    6篇
  • 论文笔记
    5篇
  • 目标跟踪
    3篇
  • 学习率
    2篇
  • 图像修复
    3篇
  • 机器学习
    12篇
  • 深度学习环境安装
    3篇
  • 目标检测
    3篇
  • 深度学习优化器
    5篇
  • Transformer
    2篇
  • Rust
    2篇
  • Pytorch优化器
  • 网络结构
    5篇
  • OpenCV相关
    26篇
  • ncnn
    3篇
  • pytorch相关
    6篇
  • Flask
    2篇
  • mysql相关
    1篇
兴趣领域 设置
  • 大数据
    flink
  • 人工智能
    opencv语音识别计算机视觉机器学习深度学习神经网络自然语言处理tensorflowpytorch图像处理nlp数据分析
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

175人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

【大模型】VAE中的“变分”是什么

VAE(Variational Autoencoder),中文译为变分自编码器。其中AE(Autoencoder)很好理解。那“变分”指的是什么呢?—其实是“变分推断”。变分推断主要用在VAE的损失函数中,那变分推断是什么,VAE的损失函数又是什么呢?往下看吧!
原创
发布博客 2024.10.28 ·
2724 阅读 ·
35 点赞 ·
14 评论 ·
38 收藏

【大模型】通俗解读变分自编码器VAE

大模型已经有了突破性的进展,图文的生成质量都越来越高,可控性也越来越强。很多阅读大模型源码的小伙伴会发现,大部分大模型,尤其是CV模型都会用到一个子模型:变分自编码器(VAE),这篇文章就以图像生成为例介绍一下VAE,并且解释它问什么天生适用于图像生成。配合代码尽量做到通俗易懂。
原创
发布博客 2024.09.29 ·
3945 阅读 ·
42 点赞 ·
21 评论 ·
48 收藏

【论文笔记】独属于CV的注意力机制CBAM-Convolutional Block Attention Module

CBAM(Convolutional Block Attention Module)是2018年被提出的,不同于ViT的Attention,CBAM是为CNN量身定做的Attention模块,实现简单、效果好,你值得拥有。
原创
发布博客 2024.08.28 ·
6726 阅读 ·
35 点赞 ·
18 评论 ·
23 收藏

图解Pytorch学习率衰减策略(二)

上一篇文章介绍了一些常用的学习率衰减策略,下面我们再来看看稍微冷门一点的,包括:LambdaLR、PolynomialLR、CyclicLR、CosineAnnealingWarmRestarts、SequentialLR、ChainedScheduler
原创
发布博客 2024.08.20 ·
706 阅读 ·
26 点赞 ·
10 评论 ·
36 收藏

图解Pytorch学习率衰减策略(一)

在深度学习中,学习率是一个非常重要的超参数,它控制了模型在每次权重更新时的步长。学习率衰减策略是指在训练过程中逐步减少学习率,从而使得模型更稳定地收敛到最优解。本文将介绍:LinearLR、StepLR、MultiStepLR、ExponentialLR、CosineAnnealingLR、ReduceLROnPlateau、OneCycleLR
原创
发布博客 2024.08.12 ·
1505 阅读 ·
21 点赞 ·
7 评论 ·
35 收藏

视频生成大模型-可灵-全面测评

可灵是快手开发的对标SORA的视频生成大模型大模型,toC,主打文生视频和图生视频,已经内测了一段时间,但是审核进度很慢,基本排不上。审核通过后,再点击“生成视频”就可以体验了,功能分为文生视频和图生视频,视频分“高性能”和“高表现”,对应不用的“灵感值”,每天平台赠送66个“灵感值”。前景是两个水气球,一个装着红色液体,另一个装着绿色液体,分别从左右飞出,在镜头中部发生碰撞破裂,水花四溅,两种颜色也发生融合。从生成的5s视频来看,可灵的一致性是很好的,没有乱入、抖动,人物的动作也很丝滑。
原创
发布博客 2024.07.26 ·
1144 阅读 ·
18 点赞 ·
5 评论 ·
16 收藏

最像人声的语音合成模型-ChatTTS

最像人声的AI来了!语音开源天花板ChatTTS火速出圈,3天就斩获9k个star。截至发稿前,已经25.9k个star了。这是专门为对话场景设计的语音生成模型,用于LLM助手对话任务、对话语音、视频介绍等,仅支持中英文。硬件要求低,甚至不需要GPU,一台普通PC就能运行。主模型使用了 100,000+ 小时的中文和英文音频数据进行训练。开源的版本是4 万小时基础模型。,这是原项目ChatTTS的地址,不用下,我们要使用的是ChatTTS-ui,是给ChatTTS增加了UI,并打好了包,开包即用。
原创
发布博客 2024.06.27 ·
1150 阅读 ·
17 点赞 ·
6 评论 ·
18 收藏

Transformer论文解读

Transformer有多牛逼不用多说,时隔7年我们再来看看论文原文,看看这篇深刻改变世界的文章都说了什么。当然逐字逐句解读已经意义不大,我们只列考点。
原创
发布博客 2024.06.11 ·
1943 阅读 ·
19 点赞 ·
7 评论 ·
36 收藏

Transformer:加性注意力还是点积注意力?这是个问题~

加性注意力(Additive Attention)和点积注意力(Multiplicative Attention,也称为缩放点积注意力,Scaled Dot-Product Attention)是两种常见的注意力机制,用于计算不同序列元素之间的相关性。加性注意力最初用在seq2seq;点积注意力最初用在Transformer。总的来说点积注意力更符合当下的NLP模型,使用的更广泛。
原创
发布博客 2024.06.04 ·
1462 阅读 ·
38 点赞 ·
10 评论 ·
38 收藏

ubuntu安装Stable Video Diffusion(SVD)让图片动起来

Stable Video Diffusion可以将图片变成几秒的视频,从名字就能看出来它使用了Stable Diffusion。现在这个项目还处在早期实验阶段,预训练模型也是效果感人,不过可以试着自己训练。这里先只介绍SVD的安装,目标是项目跑起来,能把一张图片变成3秒左右的视频,下面开始。
原创
发布博客 2024.05.27 ·
1563 阅读 ·
19 点赞 ·
10 评论 ·
41 收藏

手把手教你用LoRA训练自己的Stable Diffusion模型

StableDiffusion大家已经很熟悉了,那么如何训练自己的sd模型呢,今天我就介绍一下用LoRA训练sd的方法。我们以Chilloutmix为例,Chilloutmix可以生成好看的小姐姐。为了实验LoRA的能力,我们用小哥哥的图片对它进行微调,看效果如何。
原创
发布博客 2024.05.20 ·
5842 阅读 ·
29 点赞 ·
9 评论 ·
50 收藏

如何训练一个大模型:LoRA篇

现在有很多开源的大模型,他们一般都是通用的,这就意味着这些开源大模型在特定任务上可能力不从心。为了适应我们的下游任务,就需要对预训练模型进行微调。全参数微调有两个问题:在新的数据集上训练,会破坏大模型原来的能力,使其泛化能力急剧下降;而且现在的模型参数动辄几十亿上百亿,要执行全参数微调的话,他贵啊!!于是LoRA出现了,LoRA(Low-Rank Adaptation)是微软提出的一种参数有效的微调方法,可以降低微调占用的显存以及更轻量化的迁移。同时解决了上述两个问题,那它凭什么这么厉害?往下看吧。
原创
发布博客 2024.05.13 ·
10057 阅读 ·
51 点赞 ·
16 评论 ·
106 收藏

一张图说清楚:大模型“大”在哪?ChatGLM模型结构详解

大型模型的神秘并不是不可透视的,今天我们以ChatGLM-6B为例,解析一下模型结构和代码。你会发现,大模型结构并没有那么神秘,相反还挺清晰的,就是Transformer的decoder改造而来的。我们还会看到模型中参数最密集的部分,这也是模型“大”的原因。
原创
发布博客 2024.05.06 ·
5608 阅读 ·
42 点赞 ·
12 评论 ·
49 收藏

大模型都在用的:旋转位置编码

绝对位置编码和相对位置编码都有局限性,比如绝对位置编码不能直接表征token的相对位置关系;相对位置编码过于复杂,影响效率。于是诞生了一种用绝对位置编码的方式实现相对位置编码的编码方式——旋转位置编码(RotaryPositionEmbedding,RoPE),兼顾效率和相对位置关系。RoPE的核心思想是通过旋转的方式将位置信息编码到每个维度,从而使得模型能够捕捉到序列中元素的相对位置信息。现在已经在很多大模型证明了其有效性,比如ChatGLM、LLaMA等。
原创
发布博客 2024.04.26 ·
5458 阅读 ·
36 点赞 ·
14 评论 ·
70 收藏

爱因斯坦求和约定 含代码

爱因斯坦求和约定(Einstein summation convention)是一种标记的约定, 又称为爱因斯坦标记法(Einstein notation), 可以基于一些约定简写格式表示多维线性代数数组操作,让表达式更加简洁明了。
原创
发布博客 2024.04.10 ·
1740 阅读 ·
19 点赞 ·
9 评论 ·
38 收藏

大模型必备向量数据库-Milvus的安装过程

Milvus是一个开源的向量相似度搜索引擎,专注于大规模向量数据的快速相似度搜索。本文将介绍Milvus的安装,跟着走,肯定能装上(#^.^#)
原创
发布博客 2024.02.24 ·
3413 阅读 ·
31 点赞 ·
5 评论 ·
37 收藏

Sora一出 哪里又要裁员了?

上班前夕迎来大新闻,那就是Sora了,Sora是什么,有什么牛逼之处,怎么实现的,我们跟着官方文档透露出来的一点点信息捋一捋。
原创
发布博客 2024.02.20 ·
3501 阅读 ·
40 点赞 ·
25 评论 ·
36 收藏

simulation_6

发布视频 2024.02.20

simulation_0

发布视频 2024.02.20

prompting_1

发布视频 2024.02.20
加载更多