- 博客(2)
- 收藏
- 关注
原创 Ollama本地大模型安装指南:从零开始玩转AI
本文详细介绍了Ollama大语言模型本地化部署的完整流程。主要内容包括:系统环境准备(内存、磁盘、显卡等要求)、Windows/macOS/Linux三大平台的安装方法、基础使用指南(模型下载与对话操作)、针对国内用户的优化配置(镜像加速、存储路径修改)、常见问题解决方案以及安全注意事项。特别提供了国内镜像源配置方法解决下载慢问题,并详细说明了如何修改模型存储路径避免C盘爆满。文章最后还介绍了如何通过OpenWebUI搭建可视化聊天界面,让用户能够像使用ChatGPT一样便捷地操作本地大模型。
2026-04-26 22:07:17
605
原创 win安装RTMB推流服务器
Windows系统上搭建Nginx RTMP流媒体服务器的步骤:1)下载Nginx和RTMP模块并解压;2)将nginx-rtmp-module放入Nginx目录;3)配置nginx.conf文件;4)创建启动批处理文件;5)验证服务启动(通过http://localhost/stat);6)设置直播推流地址(rtmp://[IP]:1935/live/)和播放地址。文末提供了所需文件的下载链接,包括Nginx程序、RTMP模块和配置文件。该方案可实现简单的RTMP直播推流和播放功能。
2026-04-17 21:11:01
42
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅