- 博客(8)
- 收藏
- 关注
原创 部署LLaMA-Factory及微调大模型测试
通过上述两个方法之一,你可以解决 PyTorch 和 CUDA 版本不匹配的问题,从而确保 PyTorch 能够正确识别并利用 GPU 进行计算。注意:LLaMA Board 可视化界面目前仅支持单 GPU 训练,请使用。然后就可以访问web界面了。(这里还需要去服务器安全组设置安全端口)按照GitHub上介绍的过程安装即可。补充本地模型地址和数据集地址。
2024-05-20 16:38:29 882 1
原创 本地化部署/LangChain与ChatGLM3-6B集成/大模型备忘录(三)
Conda安装langchain Conda安装jupyter并打开 找到api_serve.py文件打开点击下载模型,获得git clone的下载方式,回到MobaXterm进行下载 下载成功 export补充路径 执行一遍 心跳词嵌入 模型chatgml3-6b 推理返回上面的代码说明基本部署完成,重新python api_server.py文件成功,监听了一个端口8000打开jupyter,输入以下代码:1. `from langchain.chai
2024-05-06 17:09:12 1203
原创 本地化部署ChatGLM3大模型备忘录(二)
ChatGLM3 开源模型旨在与开源社区一起推动大模型技术发展,恳请开发者和大家遵守开源协议,勿将开源模型和代码及基于开源项目产生的衍生物用于任何可能给国家和社会带来危害的用途以及用于任何未经过安全评估和备案的服务。目前,本项目团队未基于ChatGLM3 开源模型开发任何应用,包括网页端、安卓、苹果 iOS 及 Windows App 等应用。尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性,但由于 ChatGLM3-6B 模型规模较小,且模型受概率随机性因素影响,无法保证输出内容的准确。
2024-05-05 23:00:18 878 3
原创 本地化部署ChatGLM3大模型备忘录(一)
`export PATH=/root/miniconda3/bin:$PATH` 会将 Miniconda 的 bin 目录添加到系统的 PATH 环境变量中,这样就可以直接执行 Miniconda 安装的命令了。这几行命令的目的是下载并安装 Miniconda 环境,并将其添加到系统的 PATH 环境变量中,最后验证安装是否成功。这个命令会输出 `/etc` 目录下所有以 `release` 结尾的文件的内容,通常这些文件包含了操作系统的版本信息。
2024-05-05 21:14:42 1123 1
原创 “依”本日记(四)
RestController 适用于编写restful风格的 api,返认值默认为 json 类型。service 层是对业务逻辑的校验(有可能被 controller 之外的类调用)controller 层倾向于对请求参数本身的校验,不涉及业务逻辑本身(越少越好)安装auto filling Java call argument。安装auto filling Java call argument。例: application.yml,添加。UserRegisterRequest类。
2024-05-05 20:59:39 150
原创 “依”本日记(二)前端框架瘦身和后端初始化
这个错误表明在创建名为 'com.yiping.usercenter.SampleTest' 的 bean 时出现了问题,因为它无法注入所需的依赖项。具体来说,出现了 'org.springframework.beans.factory.NoSuchBeanDefinitionException' 异常,这意味着没有找到符合条件的 'com.yiping.usercenter.mapper.UserMapper' 类型的 bean。(依赖版本不匹配的问题,后面找老师解决的,重新配对了版本,以下可供参考)
2024-03-27 23:13:41 903
原创 “依”本日记(一)安装配置NodeJs、WebStorm、Umi、Umi-UI
一、进入NodeJs官网地址下载安装包二、安装NodeJs程序配置环境Node.js下载安装及环境配置教程【超详细】_nodejs下载-CSDN博客。
2024-03-16 00:44:25 1332 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人