自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(80)
  • 资源 (1)
  • 收藏
  • 关注

原创 Git命令入门

Git是一个分布式版本控制系统,广泛用于代码管理和协作开发。以下是学习Git的基本步骤和命令。

2024-08-09 13:38:22 481

原创 Python知识点复习

左闭右闭traceback库中的获取异常追踪的详细信息==比较的是对象的值(内容)。is比较的是对象的身份(是否是同一个对象)。这两个操作符在比较对象时的行为差异在实际编程中是非常重要的,尤其是当处理可变对象(如列表、字典等)和不可变对象(如整数、字符串、元组等)时。==比较的是对象的值(内容)。is比较的是对象的身份(是否是同一个对象)。这两个操作符在比较对象时的行为差异在实际编程中是非常重要的,尤其是当处理可变对象(如列表、字典等)和不可变对象(如整数、字符串、元组等)时。

2024-05-23 19:30:07 898 1

原创 JAVA知识点复习

SQL 优化,JVM、DB,Tomcat 参数调优 >硬件性能优化 (内存升级、CPU 核心数增加、机械硬盘一> 固态硬盘等等)>业务逻辑优化/缓存 > 读写分离、集群等 > 分库分表要理解性能优化的必知法则,首先需要了解优化的不同层次和顺序,以及每种优化方法的具体内容和作用。

2024-05-22 21:40:21 882

原创 Python进行异步操作示例代码

将那些需要较长时间才能完成的操作通过异步方式进行处理,而不是同步方式。

2024-05-22 20:56:21 463

原创 Llama 3超级课堂作业笔记

Github 文档:https://github.com/SmartFlowAI/Llama3-TutorialB站视频:https://www.bilibili.com/video/BV1Kr421u71u/

2024-05-19 22:00:23 831

原创 书生浦语训练营第四次课作业

拷贝internlm开发机内的环境。

2024-05-11 22:43:50 225

原创 书生浦语训练营第四次课笔记:XTuner 微调 LLM:1.8B、多模态、Agent

在不同量级的模型上,训练速度都是比LLaMa-Factory显著的更快与LLaMa-Factory相比,同样是LLaMa2 70B超大参数量的模型,在不同的数据长度下,Xtuner的表现也是比LLaMa-Factory更好XTunner对性能优化和显存优化做的更好!

2024-05-05 23:19:06 484

原创 书生浦语训练营二期第三次作业

检索过程中,茴香豆会将输入问题与两个列表中的问题在向量空间进行相似性比较,判断该问题是否应该回答,避免群聊过程中的问答泛滥。确定的回答的问题会利用基础模型提取关键词,在知识库中检索 top K 相似的 chunk,综合问题和检索到的 chunk 生成答案。提取知识库特征,创建向量数据库。数据库向量化的过程应用到了 LangChain 的相关模块,默认嵌入和重排序模型调用的网易 BCE 双语模型,如果没有在 config.ini 文件中指定本地模型路径,茴香豆将自动从 HuggingFace 拉取默认模型。

2024-04-08 04:27:05 705 1

原创 书生·浦语训练营二期第三次笔记-茴香豆:搭建你的 RAG 智能助理

复制完成后,在本地查看环境。结果如下所示。

2024-04-08 01:14:15 853 1

原创 根据项目的环境生成一份requirements.txt

导出了所有的包,不够简洁,如果我只需要导出我项目中使用的包的顶层依赖呢?

2024-04-05 22:01:33 227

原创 书生·浦语训练营二期第二次课后作业

使用 Hugging Face 官方提供的 huggingface-cli 命令行工具。以下内容将展示使用 huggingface_hub 下载模型中的部分文件。新建 python 文件,填入以下代码,运行即可。

2024-04-04 03:06:00 464

原创 书生·浦语训练营二期第二次笔记

查看该环境内已安装的包conda list。

2024-04-01 22:40:06 412

原创 书生·浦语训练营二期第一次笔记

先前的评测方案是做多选题,模型可能存在猜测的因素。而循环评测是对选项进行轮换,只有在能够答对所有轮换的选项后才能说明它的回答是正确的。我们能利用书生·浦语的框架,完整的开发属于自己的大模型应用。相对于第一期,InternLM2增加了Lagent和AgentLego。InternLM2:在Base基础上,在多个能力进行了强化,更优秀的基座模型。InternLM2-Chat:在Base基础上,再经过SFT和RLHF对齐后的对话模型。InternLM2-Base:高质量、强可塑性的基座模型。

2024-03-31 01:01:33 465

原创 Transformers for Machine Learning: A Deep Dive阅读笔记

给定一个实数向量Zz1z2zKZz1​z2​...zK​,其中KKKSoftmaxziezi∑j1KezjSoftmaxzi​∑j1K​ezj​ezi​​对于向量ZZZ中的每一个元素ziz_izi​,Softmax函数首先计算ezie^{z_i}ezi​,即ziz_izi​的指数。然后,将这个指数除以所有元素指数的总和。

2024-03-24 21:40:11 963

原创 LeetCode Hot100 哈希相关题目(1、49、128)C++

【代码】LeetCode Hot100 哈希相关题目(1、49、128)C++

2024-03-20 16:24:41 239

原创 GitHub与Git命令使用笔记

这些步骤假设已经有一个本地项目和一个远程仓库,并且希望将远程仓库的内容合并到本地项目中。在未来,每当完成了一系列更改并希望将这些更改推送到GitHub时,只需要重复上面的。如果你现在不想提交这些更改,但希望稍后再处理,你可以使用贮藏(stash)功能将更改临时保存起来。如果你还没有本地分支对应于远程分支,你可以使用以下命令创建并切换到一个新的本地分支,这个分支会跟踪远程分支(将。如果已经有了一个本地分支并希望将远程分支的变更合并到这个本地分支中,确保现在就在那个本地分支上。如果只想添加特定文件,可以将。

2024-03-19 18:46:10 695

原创 使用Pytorch进行梯度下降的计算

输出:这段代码演示了使用PyTorch自动微分功能(autograd)来训练一个简单的线性回归模型。线性回归的目的是找到一个权重 (w),使得模型 (f(x) = w \times x) 能够尽可能准确地预测给定输入 (x) 对应的输出 (y)。这个例子中,我们希望模型学习到的权重使得 (f(x)) 接近真实函数 (f(x) = 2x)。初始化数据和权重:定义模型和损失函数:训练过程:自动梯度计算:PyTorch的自动微分引擎(autograd)使得计算梯度变得简单。通过在损失张量上调用 方法,PyTo

2024-03-10 19:58:31 446

原创 使用Numpy手工模拟梯度下降算法

通过不断重复这个过程(前向传播、损失计算、梯度计算、权重更新),www逐步被调整,以最小化模型的总损失。每次迭代,梯度告诉我们如何调整www以减少损失,学习率α\alphaα控制了这个调整的步长。随着迭代的进行,模型预测ypredypred​会逐渐接近真实值YYY,损失函数值会持续减小,直至收敛到最小值或达到学习的终止条件。

2024-03-10 19:16:28 905

原创 Pytorch学习资料

Pytorch Tutorial: https://www.youtube.com/playlist?list=PLqnslRFeH2UrcDBWF5mfPGpqQDSta6VK4PyTorch for Deep Learning & Machine Learning – Full Course: https://www.youtube.com/watch?v=V_xro1bcAuAPyTorch for Deep Learning & Machine Learning – Full

2024-03-10 02:36:26 365

原创 PyTorch会在每次.backward()调用时会累积梯度的问题

这段代码展示了在PyTorch中如何计算梯度、梯度累积的特性以及清空梯度的重要性。在实际训练模型时,适时清空梯度是保证模型正确学习的关键步骤之一。

2024-03-10 02:17:20 1150

原创 Pytorch报错:grad can be implicitly created only for scalar outputs

创建一个v,作为链式法则中的Jacobine矩阵当执行时,实际上进行的操作是计算向量y相对于其输入张量x的向量-雅可比乘积(vector-Jacobian product, VJP)。这个过程可以更清晰地理解backward方法的工作原理以及v的作用。假设我们有向量函数yfx,其中x和y都是向量,x∈Rny∈Rm。雅可比矩阵J是f相对于x的导数的矩阵表示,其中每个元素Jij​∂xj​∂yi​​。

2024-03-09 23:07:19 1348

翻译 如何在MacOS上安装JMeter

Apache JMeter 是一个功能强大的开源负载测试工具,广泛用于测量 Web 应用程序的性能和可扩展性。如果你是 macOS 用户并想开始进行负载测试,那么你来对地方了!这个分步指南将指导你在 macOS 机器上安装 Apache JMeter 的过程,使你能够开始你的性能测试之旅。

2024-03-07 16:43:53 158

原创 C/C++刷算法题时高精度与进位制题型处理技巧

相同次数的系数相加。

2024-03-01 06:22:52 379

原创 PAT甲级字符串相关题目题解(C/C++)

其中,(a) 和 (b) 是大于0的实数,(c) 是正实数且 (c \neq 1)。我们想要计算的是 (2^{31}) 用 (10) 的次方来表示,即求 (10) 的多少次方等于 (2^{31})。要证明 (2^{31}) 约等于 (10^{9.33}) 的推理正确性,我们可以使用对数的换底公式来进行计算。c - '0’可以得到字符对应的int值,如果直接输出c,输出的是这个数字字符的ASCII码值,易错点。因此,我们可以得出结论,(2^{31}) 约等于 (10^{9.33}),证明了推理的正确性。

2024-02-29 23:47:58 1153

原创 C/C++刷算法题时字符串处理技巧

格式的字符串时间,因为是从前往后比较,即可,C++中,字符串可以直接用。也可以自己实现函数来实现。

2024-02-29 20:50:49 374

原创 二进制位移操作解释

左移()操作是位操作中的两种基本操作,它们直接在操作数的二进制表示上进行操作。这里通过具体例子来解释左移和右移的含义和效果。

2024-02-26 20:33:15 1452

原创 C/C++基础语法

求斐波那契数列的第n项。输入一个整数,表示时间,单位是秒。输出一个字符串,用”时:分:秒”的形式表示这个时间。(1) 能被100整除时,必须能被400整除;(2) 不能被100整除时,被4整除即可。

2024-02-26 17:14:07 1109 1

原创 配置vscode,使其可以运行C++11特性的代码(如vector)

配置完成后,可以运行基本的输出hello world的代码,并进行调试。但是在使用vector时,会报错。原因:因为编译器默认没有开启对C++11(或更高版本)的支持,而代码中使用了C++11的特性(如初始化列表和基于范围的for循环)。为了解决这个问题,需要在编译命令中指定使用C++11或更高版本的标准。

2024-02-26 15:09:09 816

原创 书生浦语训练营笔记与作业汇总

课程笔记:第一节:https://blog.csdn.net/qq_37397652/article/details/135532014第二节:https://blog.csdn.net/qq_37397652/article/details/135533226第三节:https://blog.csdn.net/qq_37397652/article/details/135586700第四节:https://blog.csdn.net/qq_37397652/article/details/135

2024-01-31 03:04:53 455

原创 【第六课课后作业】大模型评测

确保按照上述步骤正确安装 OpenCompass 并准备好数据集后,可以通过以下命令评测 InternLM-Chat-7B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以。模式下,任务将按顺序执行,并实时打印输出。模式启动评估,并检查是否存在问题。

2024-01-25 18:56:32 450

原创 书生·浦语大模型实战营-学习笔记6

可以基于正则表达式的方式,提取模型的回答,只要在模型的回答中提取到北京这个关键词,就认为模型在客观上答对了这道题。就可以去统计所有题目在客观上的准确率,这样是客观评测的方式。另一种对模型进行评测的方式:可以使用Prompt Enginnering方法测试模型对Prompt的敏感性。同一个问题有多种问法,有多种Prompt的表达方式,预期模型在这5种问题下的回答都是一样的,都能答对。如果只是简单的换了一种Prompt的问法,模型就答错了的话,说明模型的鲁棒性很差。https://github

2024-01-24 06:23:13 524

原创 【第五课课后作业】LMDeploy 的安装、量化和部署

LMDeploy 的安装、量化和部署基础作业启动Turbomind本地服务启动Gradio和ApiServer服务运行Gradio客户端,输入“讲一个300字的睡前故事”进阶作业

2024-01-23 19:20:32 511

原创 书生·浦语大模型实战营-学习笔记5

轻量化、推理引擎、服务。

2024-01-23 19:03:13 490

原创 【第四课课后作业】XTuner大模型单卡低成本微调实战

安装完后,就开始搞搞准备工作了,创建工作路径。(准备在 oasst1 数据集上微调 internlm-7b-chat)

2024-01-23 17:45:50 651

原创 书生·浦语大模型实战营-学习笔记4

【代码】书生·浦语大模型实战营-学习笔记4。

2024-01-20 18:26:44 561

原创 【第三课课后作业】基于 InternLM 和 LangChain 搭建你的知识库

创建开发机进入 conda 环境之后,使用以下命令从本地一个已有的的环境,激活环境,在环境中安装运行 demo 所需要的依赖。

2024-01-20 16:40:22 452

原创 高性能计算HPC笔记(一):概论

这里PPT中有个问题:客户端只上传公钥给服务器,私钥是自己保留的。SISD:用一个线程去执行一条指令。SIMD:使用单个instruction来操作多条数据(vector化),会共用一个很长的唯一运算器。SIMT:开发起来更自由,一条指令执行的运算器来自于不同的硬件,取的内容的地址位置可以在任何地方一个instrcution指令调用不同的运算器用GPU做运算,把这里看为8个并行在做的事情,每一个流拿的tid不一样用CPU做MIMD开发,加一行与编译指令就可以实现并行。CPU执行前一个

2024-01-18 17:11:52 526

原创 书生·浦语大模型实战营-学习笔记3

如何快速高效的开发RAG应用?开发者可以直接将私域数据嵌入LangChain中的组件,通过将这些组件进行组合,生成适合来构建适用于自己业务场景的RAG应用对于以本地文档形式存在的个人知识库,会使用组建来加载本地文档,这个组件会将不同格式的本地文档统一转换为纯文本格式;然后使用对提取出来的纯文本进行分割成Chunk,再通过开源词向量模型将文本段转换为向量格式,存储到基于Chroma的向量数据库VectorDB中。接下来,对于用户的每一个输入Query,会首先通过。

2024-01-15 01:02:10 1133

原创 【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo

上述两个模型对于基础知识、人文知识的回答表现较好,对专业知识的回答表现较弱。图文并茂生成的图片直接复制于互联网与某些大学或者研究机构的课件(猜测),因此生成的图文并茂推文若用于商用的话可能会存在版权问题。

2024-01-13 04:48:26 1196

原创 书生·浦语大模型实战营-学习笔记2

目录轻松玩转书生·浦语大模型趣味Demo1. 大模型及 InternLM 模型介绍2. InternLM-Chat-7B 智能対话 Demo3. Lagent 智能体工具调用 Demo4. 浦语•灵笔图文创作理解 Demo5. 通用环境配置6. 课后作业视频地址:(2)轻松玩转书生·浦语大模型趣味Demo文档教程:https://github.com/InternLM/tutorial/blob/main/helloworld/hello_world.md轻松玩转书生·浦语大模型趣味Demo

2024-01-11 20:11:59 593

汇编语言实验环境(包括DOSBox,Debug,MASM,LINK等)

包括文件: debug.exe DOSBox0.74-3-win32-installer.exe edit.com exe2bin.exe LINK.EXE MASM.EXE 说明: 1、上述文件为进行王爽《汇编语言》实验所需的环境,0积分共享到网络供大家一起学习 2、该资源对应的博文:https://blog.csdn.net/qq_37397652/article/details/125285880 3、资源获取来源于网络,如有侵权请联系我,我会立即删除

2022-06-15

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除