如题,实际跑一遍发现已经非常简便快捷了,各类文章也很成熟,写一篇记录一下,为后续写开发文档存稿一下,仅供参考。适合想自己本地拉一个模型来简单跑跑或者DIY的AI入门学者
知识面有限,硬件需求不作赘述,提供一个大部分能跑的版本。
本文是私有化部署,效果其实应该跟市面上很多发布AI应用的第三方平台差不多,如果不想私有化本地化可以选择那些平台,字节的扣子、智谱之类的,没用过,不评价。
一、Ollama
用来快速拉模型和部署模型的,支持llama、qwen、Gemma等模型,很方便,下一个这个就完成80%了。
支持Windows, Linux, MacOS
下载完之后默认端口是11434,可以在win+R输入sysdm.cpl后的环境变量里面的高级选项卡-环境变量里修改端口,cache也要加一下,origin设为*可以解决跨域问题(遇到的一个小坑)