- 博客(14)
- 收藏
- 关注
转载 书生·浦语大模型实战营第二期
内容全面升级零基础搭建 RAG、多模态和智能体应用,深入了解大模型微调、部署、评测全流程[1] A100 免费算力强力助学[2] 助教讲师全程伴学[3] 优秀学员精美证书[4] 杰出项目官方流量支持&更高级别赛事推荐机会。
2024-03-15 13:48:23
63
1
原创 【DataWhale学习】Sora技术原理
Scaling ng Law:模型规模的增大对视频生成质量的提升具有明确意义,从而很好地解决视频一致性、连续性等问题;Data Engngine:数据工程很重要,如何设计视频的输入(e.g. 是否截断、长宽比、像素优化等)、patches 的输入方式、文本描述和文本图像对质量;AI Infrfrara:AI 系统(AI 框架、AI 编译器、AI 芯片、大模型)工程化能力是很大的技术壁垒,决定了 Scaling 的规模。
2024-02-29 22:50:23
329
原创 InternLM作业汇总
第四节课笔记:https://blog.csdn.net/googteo/article/details/135566121?第二节课笔记:https://juejin.cn/post/7321049431489396773。
2024-01-30 15:25:06
309
1
原创 【作业】XTuner 大模型单卡低成本微调实战
敲一次是换行,敲两次才是输入段落。4bit快一点,空内容会重复。tmux远程微调防止中断。Ctrl+B D 退出。
2024-01-14 14:07:28
549
1
原创 【笔记】XTuner 大模型单卡低成本微调实战
不需要一问一答,只需要回答(陈述句),systerm和user留空,数据放入assistant。
2024-01-13 10:09:09
599
1
原创 【作业】基于 InternLM 和 LangChain 搭建知识库基于 InternLM 和 LangChain 搭建知识库
基于 InternLM 和 LangChain 搭建知识库基于 InternLM 和 LangChain 搭建知识库建立database
2024-01-10 19:25:24
394
原创 【笔记】基于 InternLM 和 LangChain 搭建知识库基于 InternLM 和 LangChain 搭建知识库
RAG:检索增强生成,外挂知识库finetune:在小数据集上微调。
2024-01-10 15:32:58
392
原创 Datawhale深度强化学习task1学习笔记
一次次的决策来实现目标,这个目标通常是以最大化累积的奖励来呈现的,这个过程就是过程,而强化学习就是解决序列决策问题的有效方法之一。分类:基于价值的和基于策略梯度的算法探索策略( exploration strategy ):常用的方法有ϵ−greedy和置信上界( upper confidence bound,UCB )等等。
2023-11-15 14:07:07
63
原创 广播机制的维度问题
这是因为,在 numpy 中,数组的形状是一个元组,元组中的每个元素表示数组在对应维度上的长度。(,3)和(3,2,)都不是有效的数组形状表达方式。在这个例子中,偏置是一个标量,它可以和任何形状的张量相加,相当于把偏置复制成和另一个张量相同的形状,然后再相加。数那几个数字,从右到左,进行匹配)是否相同,相同则可以扩展,无论维度数相差多少都可以扩展,且可扩展的地方就只有维度长度为1的地方。广播机制是 numpy 对不同形状的数组进行数值计算的方式,它可以让形状不同的数组在某些维度上兼容,从而进行运算。
2023-11-12 15:54:48
50
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人