自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 书生大模型-L1-XTuner 微调个人小助手认知

基础任务:使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知,记录复现过程并截图。1.使用Anaconda创建一个名为xtuner0121的虚拟环境,可以直接执行命令。从 Github 上下载源码,进入源码目录,执行安装。(使用魔法科学上网)使用 InternLM 推出的1.8B的小模型来完成此次微调使用tree命令来观察目录结构这里我们用模型,通过QLoRA的方式来微调一个自己的小助手认知作为案例来进行:通过网页端的 Demo 来看看微调前的对话效果。运行。

2024-08-01 11:25:20 739

原创 书生大模型-L1-8G显存玩转书生大模型Demo

使用 LMDeploy 启动一个与 InternLM-XComposer2-VL-1.8B 模型交互的 Gradio 服务。2.1​​​​​​​执行以下代码,把教程仓库 clone 到本地。并启动一个 Streamlit 服务。1.1选择10%的开发机,镜像选择为Cuda-12.2。1.3 创建一个目录,用于存放我们的代码。1.4 创作300字小故事。2.2端口映射(本地终端)来启动我们的 Demo。来启动我们的Demo。

2024-07-29 16:45:00 368

原创 书生大模型实战营L0-Git -关卡材料提交

1.使用以下命令在终端安装Git2.Fork 目标项目到自己仓库下:3.在已经连接好开发机的vscode终端中逐行执行以下代码成功进入第三期分支:提交更改到GitHub (逐行运行)

2024-07-24 10:08:25 353

原创 书生大模型实战营L0-Python-关卡材料提交

远程连接在上一篇内容中已经操作过,此处直接。

2024-07-23 16:02:37 231

原创 书生大模型实战营L0-Linux-关卡材料提交

本地终端运行ssh -p 34934 root@ssh.intern-ai.org.cn -CNg -L 7860:127.0.0.1:7860 -o StrictHostKeyChecking=no。1.3 SSH远程连接——使用ssh-keygen命令生成RSA密钥并在开发机上添加公钥。3.使用 VSCODE 远程连接开发机并创建一个 conda 环境。文件的目录,并运行:python3 hello_world.py。首先将本地的 7860 端口将映射到开发机的 7860 端口。

2024-07-23 15:15:54 276

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除