- 博客(27)
- 收藏
- 关注
原创 本地大模型6:在conda环境中安装Langchain-Chatchat、xinference及简单使用
下载Langchain-Chatchat解压后用vscode打开conda是一个开源的包管理器和环境管理器,主要用于管理 Python 和其他编程语言的软件包和依赖项。conda环境指的是一个隔离的环境,其中包含特定版本的 Python 解释器及其依赖的库和工具。通过使用conda环境,可以避免不同项目间的依赖冲突,并且每个项目都可以使用不同版本的库,而不影响其他项目。简而言之,conda 环境是一个虚拟环境,允许你在其中安装特定版本的软件包,确保不同的项目不会互相干扰。
2024-11-11 19:27:37
1676
原创 在colab通过lora_model(权重)运行微调后的模型并部署到本地——在colab进行lora微调2
下载完成后,移动到自己保存模型的位置,在同一个目录下新建txt文件,写入下面的内容,保存退出,重命名为Modelfile,注意,没有后缀。在文件中找到生成的gguf文件,右键下载,等待下载完成(挺久的,暂时没看到进度条) ,快完成时会进入谷歌浏览器的下载里面。在该目录的空白位置,右键-在终端中打开,输入下面的代码,注意修改模型名字model-name,回车。下载unsloth包 (四分三十八秒)新建谷歌colab,修改成GPUT4。配置llama.cpp(7分31秒)进入llama.cpp。
2024-11-10 11:52:34
777
原创 edge和谷歌浏览器标签页美化(保姆级教学)
优势:1.方便性:快捷的保存需要的网站,并且可以把保存的网站导出分享给好友2.安全性:脱离谷歌账号、edge账号,可以使用微信、手机号、邮箱登录,然后云端导入保存的网站3.互通性:保存的网站可以edge、谷歌浏览器互相同步可以根据自己的喜好修改壁纸、布局、字体图标大小颜色。更多功能请自行探索。。。
2024-11-04 13:34:08
2182
1
原创 本地大模型8:数据集的各种格式
明确性:instruction 清晰指示模型需要完成的任务,减少歧义。信息冗余:对于简单问题,可能产生过多信息,影响用户体验。自然对话流:能够模拟人类的对话方式,增强用户体验。解析复杂:需要更复杂的模型来生成这种格式的回答。处理复杂性:可以适应复杂问题,提供更全面的答案。适应性广:能够处理更复杂的问题和多样化的回答。解析复杂:需要更复杂的模型和算法来处理上下文。上下文丰富:有助于提高回答的准确性和相关性。缺点:上下文缺失:对于需要背景信息的复杂问题支持不足。上下文跟踪:便于管理多轮对话的上下文。
2024-11-03 18:29:35
1444
2
原创 本地大模型7:AnythingLLM的下载使用——本地大模型接入知识库
键盘win+R->输入cmd,回车->输入ollama serve,回车点击前往官网,选择适合自己的操作系统下载,这里是windows,下载好后双击安装,修改路径即可,安装过程可能需要几分钟。下载成功安装
2024-10-27 13:41:29
19837
7
原创 neo4j桌面版报错:Database ‘neo4j‘ is unavailable. Run :sysinfo for more info
解决neo4j桌面版报错:Database 'neo4j' is unavailable. Run :sysinfo for more info
2024-09-29 14:37:02
677
原创 本地大模型1:安装部署本地Ollama大模型
对ollama本地大模型的基本使用,下载了llama3.1:8b,可以进行基本的问答,推荐了两篇调用ollama的文章
2024-09-10 11:31:02
24064
3
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人