- 博客(247)
- 资源 (5)
- 问答 (1)
- 收藏
- 关注
原创 投资笔记-市盈率、市净率、股息率
本文总结了股票投资的三个核心估值指标:市盈率(PE)、市净率(PB)和股息率。PE反映回本年限,低PE适合价值投资,高PE体现成长预期;PB衡量股价与净资产关系,适合重资产行业;股息率评估现金回报,需警惕异常高值。作者强调要综合运用三个指标,并指出数字背后的真实情况更重要,通过医药股的误判案例说明不能仅看表面数据。全文系统解析了估值指标的实际应用与注意事项。
2026-03-29 20:44:15
350
原创 Python 并发编程详解 - Java 开发者视角
本文从Java开发者视角对比讲解了Python并发编程模型。主要内容包括: 核心概念对比:Java使用内核线程,Python受GIL限制采用协程模型 Python并发演进: 多线程(适合IO密集型,受GIL限制) 多进程(突破GIL限制,适合CPU密集型) asyncio协程(Python 3.5+核心模型,最佳IO密集型方案) 实战代码示例展示三种方式的实现,并与Java对应方案对比 关键区别:Java线程可真正并行,Python线程受GIL限制,推荐IO密集型使用asyncio 文章通过具体代码对比,帮
2026-03-26 21:13:52
410
原创 大模型的“推理能力” vs. AgentScope 框架的“推理循环”:你分清楚了吗?
摘要:大模型的“推理能力”指其单次生成中完成逻辑推导的能力,源于预训练和微调;而AgentScope框架的“推理循环”是工程架构,通过多轮交互和工具调用逐步解决问题。前者是模型内在认知能力,后者是外部协调机制。两者协同工作:模型提供单步推理,框架组织多步流程。区别在于模型推理是基础能力,框架循环是应用扩展,共同实现复杂任务处理。(149字)
2026-03-26 21:12:18
511
原创 OpenClaw本地模型慢如牛?一招配置文件优化让Qwen2.5飞起来!
摘要: Mac用户在使用Ollama运行本地模型(如qwen2.5:7b)时普遍遇到响应速度下降问题,主要原因是上下文历史过长导致计算负担加重。本文提出纯配置文件优化方案,通过修改~/.openclaw/openclaw.json中的关键参数(如开启自动压缩、限制记忆长度、截断工具输出等),可显著减少请求上下文体积,提升响应速度80%以上。该方案无需安装额外组件,仅需调整配置即可让本地模型"轻装上阵",恢复应有性能。
2026-03-15 20:17:03
2656
原创 开发机上通过Ollama安装了qwen2.5:7b-instruct大模型后curl请求示例
本文介绍了在Mac开发机上通过Ollama运行qwen2.5:7b-instruct模型并调用其API的方法。主要提供两种调用方式:推荐使用兼容OpenAI格式的/v1/chat/completions端点,以及备选的Ollama原生/api/generate端点。文章包含完整的curl命令示例、参数说明、服务验证方法和实用技巧(如结合jq格式化输出),并附有执行抓包日志截图。调用前需确保Ollama服务运行且模型可用,成功调用后会返回包含模型回答的JSON响应。
2026-03-15 19:11:17
463
原创 OpenClaw 从本地到云端:阿里云百炼免费模型配置实战指南
如果你已经在 Mac 开发机上成功配置了 OpenClaw 和本地 Ollama 模型(如 qwen2.5:7b),那么恭喜你已经完成了“养虾”的第一步。本地模型虽然免费、隐私、无限制,但受限于硬件性能(尤其是 Mac 上 7B 模型通常只能跑 4bit 量化版),在处理复杂任务、工具调用准确性上,与云端大模型确实存在差距。这时候,阿里云百炼平台的云端模型就成为了完美的补充——推理速度更快,新用户还享有 90 天免费额度,让你零成本体验更强大的 AI 能力。本文将基于你已有的本地模型配置经验,详细介绍如
2026-03-15 10:34:42
1461
原创 为什么令牌桶能应对突发流量?——原理 + Java代码 + 实际案例
摘要: 令牌桶算法通过积攒令牌机制,允许瞬时流量超过长期平均速率,有效应对突发流量。其核心原理是:令牌以固定速率生成并存入容量有限的桶中,突发请求可快速消耗积攒的令牌,实现瞬时高并发。与漏桶算法不同,令牌桶能利用空闲期“储蓄”处理突发,而漏桶强制恒定输出速率。 Java代码演示显示,当桶容量为20、生成速率为10令牌/秒时,20个突发请求可在0.12毫秒内全部通过(瞬时速率16.6万请求/秒),之后恢复限流。实际案例中,API网关、电商秒杀等场景通过合理设置桶容量,既保护后端又提升用户体验。令牌桶的突发能力
2026-03-13 14:28:03
383
原创 OpenClaw与ClawHub的关系:当“智能体”遇上“技能商店”
如果你是OpenClaw的用戶,一定在文档或社区中频繁看到两个名字:OpenClaw 和 ClawHub。它们听起来像是一对孪生兄弟,但实际扮演的角色截然不同——简单来说,OpenClaw是“虾”(智能体本身),而ClawHub是“水产市场”(技能交易中心)。本文将深入解析两者的定位与协作关系,帮你彻底理清这对核心概念。OpenClaw(曾用名Clawdbot、Moltbot)是一个开源AI Agent框架,由PSPDFKit创始人Peter Steinberger于2025年11月发布,采用MIT开源协议
2026-03-11 23:02:19
672
原创 openclaw 配置本地安装的大模型qwen2.5:7b,0成本竟是如此简单
本文详细介绍了在OpenClaw中配置本地qwen2.5:7b模型的完整流程。主要内容包括:通过Ollama搭建兼容OpenAI API的本地服务器,下载4.7GB的Qwen2.5模型;安装配置OpenClaw并修改相关参数;以及最后的验证测试步骤。重点解决了模型窗口大小报错等常见问题,提供了可直接使用的配置示例。该方案支持Windows/macOS/Linux系统,推荐16GB以上内存,包含手动修改配置文件和错误处理等实用技巧,帮助用户成功实现本地模型调用。
2026-03-11 17:40:27
3818
1
原创 AgentScope 框架源码深度解读:ReAct = Reasoning + Acting 的实现原理
本文深入解析了AgentScope框架中ReAct(推理+行动)模式的实现原理。通过分析源码继承体系(AgentBase→ReActAgentBase→ReActAgent)和核心方法reply(),揭示了ReAct循环的自动化机制。reply()方法作为总控开关,通过循环执行推理(_reasoning)和行动(_acting)过程,最多迭代max_iters次。推理阶段生成工具调用指令,行动阶段执行工具并获取结果,循环持续直到LLM决定直接回答或达到结构化输出要求。元类_ReActAgentMeta自动为
2026-03-08 21:10:18
509
1
原创 Agent 隐式工具调用原理详解
本文深入解析了AI Agent隐式工具调用的工作原理,重点介绍了ReAct模式(推理+行动)的实现机制。通过一个读取PDF文件的实例,展示了Agent如何自动完成:1)理解用户意图;2)选择并调用read_pdf工具;3)总结核心内容的三步流程。文章详细剖析了关键技术组件,包括工具注册机制、系统提示词设计、模型调用格式器以及ReActAgent的执行循环逻辑。该架构使AI助手能够智能地识别任务需求并自动调用合适工具完成任务,适用于需要理解Agent底层原理的开发者阅读。
2026-03-07 23:19:36
441
原创 手撕 Agent 教程 - 打造一个轻量级个人智能助手
Alioo Agent是一款轻量级个人智能助手,专注于PDF阅读和新闻摘要两大核心功能。该工具支持多种AI模型(DashScope、Ollama、OpenAI等),提供命令行、Web界面和API三种交互方式。v0.2.0版本改进了代码结构、错误处理和用户体验,具有完整的类型注解和详细文档。安装简单,通过几个命令即可开始使用,还能轻松扩展新功能。相比复杂的企业级助手,Alioo Agent采用极简设计,代码量约1500行,特别适合学习、原型开发和轻量使用场景。
2026-03-07 23:12:13
1019
2
原创 一步步教你用 venv 管理python环境
在 macOS 上使用 venv 创建和管理 Python 虚拟环境的简明指南: 创建环境:在项目目录运行 python3 -m venv venv 激活环境:执行 source venv/bin/activate(终端提示符前会显示 (venv)) 管理依赖:在激活环境中使用 pip 安装包,通过 pip freeze > requirements.txt 保存依赖 退出环境:运行 deactivate 删除环境:直接删除 venv 文件夹 常见问题:若环境缺少 pip,可尝试 python -m
2026-03-02 10:54:20
670
原创 重新认识JVM的内存分布(JDK11 + G1垃圾收集器)
JVM内存主要分为堆内存、非堆内存、堆外内存和JVM自身开销四部分。堆内存由G1收集器管理,采用Region机制划分年轻代和老年代;非堆内存包含元空间和代码缓存;堆外内存涉及直接缓冲区和JNI调用;JVM Overhead则包括线程栈、GC元数据等运行开销。通过-Xms/-Xmx等参数可配置内存大小,需注意线程栈归属JVM Overhead而非非堆内存。典型500线程应用的内存估算显示总内存约7.75GB,建议通过调整线程栈大小、限制直接缓冲区等方式优化。监控工具如jstat、jcmd等可辅助调优。
2026-01-29 20:07:01
873
原创 AIGC入门,在Mac上基于Ollama和phi3:mini的完整Agent/Subagent例子
摘要: 本文演示了如何在Mac上基于Ollama和phi3:mini构建一个多智能体协作系统。通过创建一个主Agent和两个专业Subagent(任务分解专家和执行专家),实现了复杂任务的自动分解与执行。文章提供了完整的代码实现,包括: 项目目录结构 核心Agent基类定义 两个具体Subagent实现(任务分解JSON格式输出、任务执行状态报告) 与Ollama API的交互方法 错误处理机制(JSON解析容错) 系统通过分工协作,将复杂任务分解为可执行步骤并逐一处理,展示了多智能体协作的基本工作流程。
2026-01-09 15:02:25
670
原创 AIGC入门,为什么你的大模型应用这么慢又贵?RAG架构的降本增效革命
本文分析了直接向大模型投喂完整文档的"反模式"及其性能瓶颈,提出了RAG(检索增强生成)架构的优化方案。通过对比实验显示,RAG架构可将大模型应用的API成本降低99.76%(从单次$3.75降至$0.009),响应时间缩短70-90%(30秒→3秒),并发能力提升10-100倍。RAG的核心优势在于预处理文档切片并建立向量索引,使每次查询仅需检索相关片段而非完整文档,大幅减少token消耗。文章还提供了两种方案的代码实现对比,证明RAG在成本、性能和扩展性上的显著优势,是企业级大模型应
2026-01-09 14:17:34
760
原创 机器学习入门,微积分之导数概念
本文系统介绍了导数的核心概念、计算方法和应用意义。导数定义为函数在某点的瞬时变化率,通过极限表达式表示。实际计算中主要运用基本初等函数导数公式和运算法则(如四则运算、复合函数求导法则)。文章提供了多个计算示例,并阐述了导数在物理、经济等领域的重要应用价值,如速度、边际效应等。掌握导数的关键在于熟记基本公式、准确识别函数结构并正确应用相应法则。通过系统学习这些基础内容,可以解决大多数初等函数的求导问题。
2025-12-03 20:27:07
294
原创 机器学习入门,无监督学习之DBSCAN聚类算法完全指南:面向Java开发者的Python实现详解
本文介绍了DBSCAN聚类算法的核心概念、实现原理及Python实现。DBSCAN是一种基于密度的聚类算法,相比K-Means具有无需预设簇数、能识别任意形状簇和噪声点等优势。文章通过Java类比解释了核心概念(如核心点、边界点等),详细讲解了算法步骤,并提供了完整的Python实现代码,包括自定义DBSCAN类和可视化示例。该实现采用广度优先搜索策略扩展簇,适合Java开发者理解Python实现方式。
2025-10-15 20:52:12
688
原创 机器学习入门,无监督学习之K-Means聚类算法完全指南:面向Java开发者的Python实现详解
本文为Java开发者提供了K-Means聚类算法的Python实现指南。文章首先通过对照表将Java概念映射到Python语法,帮助开发者快速上手。然后详细讲解了K-Means算法的核心思想,将其类比为"将彩色球分到K个篮子"的过程。完整代码实现包括数据生成、算法核心和可视化模块,特别对Python的向量化操作与Java循环进行了对比说明。文章还介绍了如何使用sklearn库的KMeans实现以及如何评估聚类效果,最后提供了算法优缺点的分析。通过这种针对Java开发者的视角,帮助读者理解
2025-10-15 20:40:48
967
原创 AIGC入门,手搓大模型客户端与MCP交互第2集
本文针对大语言模型(LLM)与MCP服务交互过程中出现的JSON格式不规范问题,提出了一套鲁棒的参数提取方案。原系统假设模型总是返回完美JSON,但实际响应常包含多余文本、注释或格式错误,导致解析失败。改进方案通过两个核心函数:extract_json_from_response()使用正则表达式清除注释并采用多层解析策略,validate_tool_call()验证JSON结构完整性。该方案显著提升了工具调用的成功率,代码演示了如何从杂乱响应中提取有效JSON并进行验证。
2025-10-09 17:57:36
455
原创 Git高级操作:提升开发效率的实用别名设置
本文分享了一系列优化Git工作流的实用配置和别名设置。通过禁用分页器、强制彩色输出、设置严格时间格式等基础配置,提升操作体验。同时提供了st(status)、co(checkout)等常用命令的简化别名,以及loggg、logg等高级日志格式化工具,使输出更清晰易读。这些设置能显著减少日常命令输入量,建议根据个人习惯调整后加入全局配置。文末附完整脚本可直接复制到~/.bashrc使用。
2025-10-09 17:13:45
425
原创 用AI帮忙,开发刷题小程序:软考真经微信小程序API接口文档(更新版)
本文档详细介绍了软考真经微信小程序的API接口规范,主要包含三个环境配置和三类核心接口:认证接口(微信登录、用户信息)、考试接口(开始/结束考试、题目/错题列表、提交答案)和统计接口。所有请求需携带认证token,遵循标准HTTP状态码规范。小程序为软考考生提供在线考试、错题练习和学习数据统计功能,通过REST API实现前后端交互。文档还提供了典型接口调用示例,如考试流程管理和答题提交等核心场景的实现方式。
2025-10-08 18:00:10
788
原创 用AI帮忙,开发刷题小程序:微信小程序中实现Markdown图片解析与渲染功能详解
本文介绍了在微信小程序中实现Markdown图片解析与渲染功能的技术方案。通过创建工具函数解析包含Markdown图片的文本内容,将其转换为混合数组,并在WXML模板中循环渲染,实现了图文混排效果。该方法保持了内容的原始顺序和语义连贯性,适用于在线考试系统等需要展示图文内容的场景。文章详细说明了核心实现步骤,包括工具函数编写、组件逻辑修改、模板调整和样式优化,并提供了项目源码地址供参考。
2025-10-08 17:39:53
962
原创 用AI帮忙,开发刷题小程序:从零开始,构建微信小程序答题系统
《微信小程序答题系统开发实践》摘要:本文详细介绍了从零开发微信小程序答题系统的全过程。项目采用标准的微信小程序架构,通过组件化设计和TypeScript类型定义确保代码质量。核心功能包括题目数据模型设计、答题流程控制、记录管理机制等,并实现了流畅的滑动切换和实时反馈交互。系统采用API封装和异步加载优化网络请求,最后通过代码优化和全面测试完成部署。项目展现了小程序开发的全流程实践,源码已开源并提供体验二维码。
2025-10-06 19:01:16
2665
3
原创 用AI帮忙,开发刷题小程序:微信小程序在线答题系统架构解析
本项目开发了一个基于微信小程序的在线答题系统,采用原生小程序框架实现组件化开发。系统包含首页导航、答题、学习和记录四大功能模块,通过标准化的exam-question组件统一题目展示,并利用工具类封装核心逻辑。技术亮点包括流畅的交互体验、清晰的数据流设计和组件复用机制。目前系统已实现基本答题功能,支持题目展示、作答验证和结果统计,后续可扩展更多题型和数据分析功能。项目代码已开源,便于开发者参考和学习微信小程序开发实践。
2025-10-06 16:46:32
1569
原创 用AI帮忙,开发刷题小程序,在线答题系统数据库设计文档
本文档描述了在线答题系统的核心数据库设计,包含7个主要数据表: 题目表(question)存储题目基本信息 选项表(question_option)记录题目选项 试卷表(exam_paper)管理试卷信息 试卷题目关联表(exam_paper_question)建立试卷与题目关系 试卷分类表(exam_paper_category)组织试卷分类结构 用户考试记录表(user_exam_record)记录考试整体情况 用户答题详情表(user_answer_detail)记录每题答题详情 每个表包含详细的字段
2025-10-06 11:05:54
920
原创 AIGC入门,手搓大模型客户端与MCP交互
本文介绍了一个基于MCP协议和Ollama本地大模型的智能时间查询系统。该系统由两部分组成:时间服务器(time_server.py)提供获取当前时间和列出时区的工具函数;客户端(time_client_test3.py)利用Ollama模型分析用户查询并智能调用时间服务。时间服务器实现了完整的时区处理和错误提示功能,通过MCP协议暴露工具接口。客户端采用异步连接管理和多重策略解析模型响应,能够智能判断是否需要调用时间服务工具。这种架构展示了如何将大语言模型与专用工具服务相结合,构建既能理解自然语言又能精准
2025-09-16 21:36:01
800
原创 AIGC入门,从理解通信协议sse与streamhttp开始
随着AIGC(生成式人工智能)的普及,大模型如GPT、通义千问等已广泛应用于对话、代码生成、数据分析等场景。这些模型在运行时需要与客户端进行高效通信,SSE(Server-Sent Events) 和 Stream HTTP(流式HTTP) 是两种核心通信协议。本文将结合理论和Java代码示例,帮助你理解这两种协议的原理、区别及在AIGC中的实际应用。
2025-09-16 21:21:30
1132
原创 AIGC入门,程序员的第一个MCP例子
本文展示了一个基于MCP协议的时间查询服务器示例。该Python脚本提供了四个主要功能:1)获取指定时区的当前时间并可自定义格式;2)查询特定时区的详细信息;3)列出常用时区可按地区过滤;4)计算两个时区之间的时间差。服务器通过标准输入/输出(stdio)方式运行,使用pytz库处理时区转换,并提供了清晰的错误处理机制。每个功能都定义了输入参数模式,支持默认值设置,确保接口的易用性。
2025-09-14 17:16:34
886
原创 机器学习入门,用Lima在macOS免费搭建Docker环境,彻底解决镜像与收费难题!
本文介绍了在macOS上使用Lima免费搭建Docker环境的完整方案,解决了Docker收费和镜像访问难题。主要内容包括:通过Homebrew安装Lima工具;使用官方模板或自定义配置启动Docker实例;配置Shell环境变量实现通信;以及验证安装的测试方法。该方法比Docker Desktop更轻量且完全免费,特别适合因公司政策无法使用Docker桌面版的用户。文章还提供了详细的配置示例和关键步骤说明,确保用户能顺利完成安装并运行测试容器。最后附上了相关技术文章的扩展阅读链接。
2025-09-05 17:33:13
895
原创 机器学习入门,第一个MCP示例
本文介绍了MCP(Model Context Protocol)协议及其应用。MCP作为Anthropic提出的开放协议,为AI大模型提供了连接外部资源的标准接口。文章通过六个步骤详细演示了如何搭建MCP服务:首先安装必要组件,然后创建文件管理工具的MCP服务器脚本,接着配置Open-WebUI连接MCP服务,最后进行测试验证。示例代码展示了如何实现列出桌面文件和读取文件信息的功能,并提供了调试建议。该方案使大模型能够直接操作用户本地数据,扩展了AI的实际应用能力。
2025-09-04 21:28:26
1400
原创 机器学习进阶,梯度提升机(GBM)与XGBoost
XGBoost是当前结构化数据竞赛和工业应用中强大的集成学习算法,相比随机森林(Bagging思想)采用Boosting方式串行构建模型,通过纠正前序模型错误提升性能。本文通过鸢尾花分类任务对比两种算法,提供完整Python实现:1)数据加载与预处理;2)训练随机森林和XGBoost模型;3)评估准确率与交叉验证比较;4)可视化特征重要性。XGBoost优势包括:state-of-the-art性能、高效可扩展、内置正则化防过拟合,特别适合表格数据。代码模块化实现包含早停法等高级功能,显示XGBoost测试
2025-09-04 17:01:25
1087
原创 机器学习进阶,一文搞定模型选型!
如何选择适合的机器学习算法?关键步骤包括:1)明确业务目标与评估标准;2)确定问题类型(回归/分类/聚类);3)分析数据特性(规模、线性、特征等);4)从简单模型开始(如线性回归/逻辑回归);5)逐步尝试强效算法(如随机森林/XGBoost);6)通过交叉验证快速迭代验证。核心原则是:没有"最优"算法,只有最适合具体问题和数据特点的解决方案。建议优先考虑随机森林/XGBoost等对表格数据处理效果好的算法,再根据实际效果调整。最终选择需结合业务需求和实验结果。
2025-09-03 17:57:04
1291
原创 机器学习入门,随机森林算法
随机森林算法是一种集成学习方法,通过构建多棵决策树并采用投票或平均机制来提高预测性能。其核心在于Bagging思想,使用Bootstrap抽样生成多个训练子集,并在节点分裂时随机选择特征子集以增强模型多样性。该算法具有抗过拟合、处理高维数据和评估特征重要性等优势。文中提供了完整的Python实现示例,包括数据加载、EDA分析、模型训练和评估流程,使用鸢尾花数据集展示了随机森林分类器的应用。
2025-09-03 17:34:33
1096
原创 机器学习入门,支持向量机
本文介绍了支持向量机(SVM)在客户信用评分中的应用。SVM通过寻找最优超平面来分隔不同类别数据,最大化边界距离。在银行信用评估场景中,可基于客户收入和负债数据,使用线性核SVM进行高风险/低风险分类。文章提供了一个模块化Python实现,包含数据生成、模型训练、评估和可视化功能,并解释了准确率计算公式。该方案适用于小样本线性可分数据,准确率达100%,支持向量在图中被明确标出。代码采用函数式设计,便于复用和扩展。
2025-09-02 17:03:43
547
原创 机器学习入门,决策树模型详解及完整实现
决策树是一种基于树结构的预测模型,通过一系列"如果...那么..."规则进行决策。它包含根节点、内部节点和叶节点三种节点类型,使用信息增益、基尼不纯度等准则选择最佳分裂点。本文以房价预测为例,展示了如何根据位置、面积等特征构建决策树,并提供了Python实现代码,包括节点分裂、递归建树和预测功能。该简化模型可处理回归问题,通过计算均方误差寻找最佳分裂,支持限制最大深度等停止条件,最终输出易解释的树形结构。
2025-09-02 12:59:01
676
原创 机器学习入门,非线性模型的预测方法之多项式
本文展示了一个带L2正则化的多项式回归模型实现。代码包含数据生成、特征转换、损失计算、梯度下降优化和模型评估等功能模块。主要特点包括:1)生成二次多项式样本数据并添加噪声;2)实现多项式特征转换;3)采用L2正则化防止过拟合;4)使用梯度下降优化算法;5)提供模型评估指标(MSE、RMSE、R²等)和可视化功能。该实现可灵活调整多项式次数,适用于非线性数据的回归分析。
2025-09-01 17:36:09
1345
原创 机器学习入门,非线性规划类模型如何预测
摘要:本文分析了线性模型预测中使用点积的局限性,指出其仅适用于线性关系。针对非线性问题,介绍了多项式回归、神经网络、树模型和支持向量机等预测方法,并提供了各方法的Python实现示例。文章建议从简单线性模型开始,通过可视化分析和交叉验证逐步选择合适模型,同时考虑计算成本。最后强调应根据数据特性和业务需求选择最优预测方法。
2025-08-29 13:16:44
379
原创 机器学习入门,从线性规划开始
本文介绍了机器学习中几个核心数学概念及其实现方法。首先解释了矩阵点积的计算原理,包括不同维度矩阵的点积示例。其次详细说明了偏置项的作用及其代码实现方式,通过添加全1列实现模型截距。重点讲解了梯度下降算法,通过线性回归实例演示参数更新过程,展示如何逐步逼近最优解。最后介绍了回归模型的性能评估指标:MSE、RMSE和MAE,分别解释了它们的计算公式、数学意义及评价标准。这些基础概念为理解机器学习算法提供了必要的数学基础。
2025-08-29 12:11:11
744
原创 自己动手,在Mac开发机上利用ollama部署一款轻量级的大模型Phi-3:mini
Ollama是一个开源的大语言模型运行框架,支持在本地计算机上部署和管理各种LLM。本文介绍了在Mac上通过Docker安装Ollama的详细步骤,包括:1)使用Docker运行Ollama容器;2)进入容器并下载轻量级模型(推荐phi3:mini或llama3.2:1b);3)通过命令行或API与模型交互;4)可选安装Open-WebUI图形界面。文章还提供了常见问题解决方案(如内存不足错误)和常用命令参考,帮助用户快速上手使用Ollama运行本地大语言模型。
2025-08-21 21:32:54
2186
Servlet 中文乱码问题
2014-10-20
CMPP2.0 CMPP3.0 接口协议
2014-10-20
java中获取HashMap中的table?
2017-05-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅