- 博客(8)
- 收藏
- 关注
原创 Tutorial L1 第五关
网页端的 Demo 来看看微调前 internlm2-chat-1_8b 的对话效果。通过软链接准备要微调的模型。tree命令来观察目录结构。改变路径为微调后的路径。
2024-10-05 05:04:43
246
原创 Tutorial L1 第六关
打开 opencompass文件夹下configs/models/hf_internlm/的hf_internlm2_chat_1_8b.py ,贴入代码。解压评测数据集到 /root/opencompass/data/ 处。列出所有跟 InternLM 及 C-Eval 相关的配置。使用配置文件修改参数法进行评估。配置环境变量,开始评测。
2024-10-05 04:45:59
183
原创 Tutorial L1 第四关
配环境,前面下载包记录太长截图不了这么多,从下载 Sentence Transformer 模型开始。新建llamaindex_internlm.py 贴入以下代码。运行以下指令,把 InternLM2 1.8B 软连接出来。download_hf.py 贴入以下代码 换镜像源。新建llamaindex_RAG.py贴入以下代码。可以看出大模型已经会回答xtuner了。看到模型确实在model目录下了。回答的效果并不好,进行rag。新建app.py,并贴代码。下载 NLTK 相关资源。
2024-10-05 02:44:31
252
原创 Tutorial L1 第三关
环境已安装,使用LMDeploy进行部署用如下脚本调用部署的InternLM2-chat-1_8b模型并测试部署成功运行chat_ui项目进行端口映射,注意端口号改为8501网页打开用langgpt做提示。
2024-10-05 01:01:24
481
原创 Tutorial L1 第二关
激活好已经配置的文件,并且建立cli_demo.py文件,复制代码,通过 python /root/demo/cli_demo.py 来启动 Demo,效果如图。Streamlit Web Demo 部署 InternLM2-Chat-1.8B 模型。浏览器访问 http://localhost:6006 来启动 Demo,故事生成中。把本教程仓库 clone 到本地,启动一个 Streamlit 服务。本地的 PowerShell 中输入以下命令,将端口映射到本地。
2024-10-04 22:36:35
218
原创 InternLM / Tutorial L1
书生大模型是由上海AI lab研发的一款大语言模型,具有强大的多模态处理和理解能力。它通过预训练和微调的方式,可以适应各种任务。书生浦语全链路开源开放体系为自然语言处理领域带来了新的机遇和挑战。我相信,在不久的将来,随着技术的不断进步和社区的不断发展壮大,书生大模型将在更多领域发挥重要作用,推动人工智能技术的普及和应用。
2024-10-04 21:45:20
175
原创 Python实现wordcount 和Vscode连接InternStudio debug笔记
任务一中已经完成了vscode对开发机的ssh连接,现在安装python 和debug的插件复制示例尝试了一下有红点,说明插件安装成功debug过程可以看到左侧的变量,运行+1还没+2的时候sum还是1用conda创建了一个环境创建成功激活环境,并且安装包。
2024-10-04 02:13:49
782
原创 L0 as1 完成SSH连接与端口映射并运行hello_world.py
进入开发机页面找到创建的开发机,点击SSH连接。复制的命令粘贴到powershell,输入密码成功登录用ssh-keygen生成密钥(打个码,再用Get-Content命令查看生成的密钥回到开发机平台,在首页点击配置SSH Key,接着点击添加SSH公钥,将刚刚生成的密钥复制下来,粘贴到公钥框中,SSH Key配置完成。已经安装vscode和相关ssh插件,用vscode连接开发机,因为ssh key前面配置完成所以直接连接了。
2024-10-04 01:39:57
478
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人