![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
大模型
文章平均质量分 94
yygr
这个作者很懒,什么都没留下…
展开
-
玩一玩通义千问Qwen开源版,Win11 RTX3060本地安装记录!
大概在两天前,阿里做了一件大事儿。就是开源了一个低配版的模型--通义千问-7B-Chat。这应该是国内第一个大厂开源的大吧。虽然是低配版,但是在各类测试里面都非常能打。官方介绍:Qwen-7B是基于的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen-7B的基础上,我们使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。本仓库为Qwen-7B-Chat的仓库。同时官方也给出了很多测试结果。转载 2024-03-18 10:02:38 · 306 阅读 · 2 评论 -
通义千问模型使用text-generation-webui搭建webui页面
text-generation-webui 适用于大型语言模型的 Gradio Web UI。支持transformers、GPTQ、AWQ、EXL2、llama.cpp (GGUF)、Llama 模型。它的特点如下,3种界面模式:default (two columns), notebook, chat。转载 2024-03-18 09:59:41 · 2734 阅读 · 0 评论 -
pytorch适配CUDA降版本、选择gpu版本最终方案
看着网上的文章,还有问chatGPT,一步步解决了这个问题,还是值得的。有的方法在选择gpu版本的时候,选择这样:conda install -c 镜像源 后面调试版本...一步步调版本,我在调的时候发现太搞了,而且试出来下好配套的了,可能下的也是cpu版本的。conda安装GPU版pytorch,结果却是cpu版本[找到问题根源,从容解决]_为什么conda安装pytorch版本不对-CSDN博客可能更了解镜像源内部选择的方式,会有更好的解决方法。转载 2024-03-18 09:43:42 · 3354 阅读 · 0 评论