- 博客(6)
- 收藏
- 关注
原创 windows下安装langchain-chatchat0.2.5
2-1、如果没有GPU或者GPU显存小于12G,建议用在线大模型:用文本编辑器修改config目录中的model_config.py文件,将申请的大模型key输入到114~184行,同时修改100行LLM_MODEL为对应大模型,例如:"zhipu-api"因国内访问huggingface.co困难,做了一个windows下的整合包,内置了chatglm2-6B、m3e-base,可以本地运行langchain-chatchat0.2.5的LLM、知识库、搜索增强等功能。
2023-10-01 06:59:20
477
原创 windows10下安装CodeGeeX2,AI编程助手
3、启动后通过本地http://127.0.0.1:7860访问,也会生成一个72小时的公网URL,供远程访问。1、下载程序:git clone https://github.com/THUDM/CodeGeeX2。2、直接用ChatGLM2-6B的依赖python .\demo\run_demo.py即可启动。链接:https://caiyun.139.com/m/i?如果嫌安装依赖麻烦,做了一个不带模型的整合包,下载后点击run.bat即可运行。
2023-07-28 19:52:20
1978
1
原创 整合包:Windows下一键部署chatglm2-6b
链接:https://caiyun.139.com/m/i?run_CPU运行.bat:无需CPU,速度比较慢。解压后点击“runxxx.bat”文件运行。run_6G显存运行.bat:小显存显卡。run_13G显存运行:大显存显卡。
2023-06-26 16:21:39
1059
4
原创 如何在windows上本地部署SadTalker,实现AI数字人
解压:ffmpeg-6.0-full_build-shared.zip 到根目录(例如:c:\ffmpeg-6.0-full_build-shared)解压:ffmpeg-6.0-full_build-shared.zip 到根目录(例如:c:\ffmpeg-6.0-full_build-shared)下载:ffmpeg-6.0-full_build-shared.zip。下载:ffmpeg-6.0-full_build-shared.zip。安装依赖并启动:python Launcher.py。
2023-06-20 10:22:33
5223
6
原创 如何在windows上本地部署audiocraft,实现电脑AI作曲
下载:https://huggingface.co/r4ziel/xformers_pre_built/blob/main/triton-2.0.0-cp310-cp310-win_amd64.whl。下载:https://huggingface.co/r4ziel/xformers_pre_built/blob/main/triton-2.0.0-cp310-cp310-win_amd64.whl。打开:https://github.com/GyanD/codexffmpeg/releases。
2023-06-19 16:05:57
980
原创 windows10下本地部署langChain-ChatGLM2-6B
设备配置:CPU E3-1240v3, RAM 32G, SSD 1T, GPU0 Nvidia 1080ti,GPU1 Nvidia T4。打开windows资源查看器,内存全部占满。遗留问题,默认webug.py没用gpu,纯cpu跑,速度非常慢。使用浏览器打开 http://localhost:7860/如果显示 Conda 及其内部包的列表,则说明安装成功。4.添加必要的 Conda 通道以获取更多软件包,如果报错(一般都是传输超时),则重新运行几次。没有加载到GPU,全用CPU跑了。
2023-06-07 12:39:23
4053
5
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人