- 博客(29)
- 收藏
- 关注
原创 基于Qwen Coder的上下文工程编程框架,为AI辅助开发提供标准化流程
随着 AI 编程技术的快速发展,如何有效地利用 AI 助手进行高质量的代码开发成为业界关注的焦点。本项目是一个基于提示词工程方法论的 AI 辅助开发框架,运行于Qwen Coder CLI 平台。它通过提供结构化的提示词模板和验证机制,引导 AI 生成高质量、可运行的代码,并确保代码质量。FEATURE定义要实现的功能特性EXAMPLES提供参考示例和最佳实践列出必要的技术文档和资源考虑安全、部署等其他重要因素将 commands目录下的文件拷贝到 Qwen Coder 安装目录的。
2025-09-07 17:43:44
1119
3
原创 #千问海报大赛
在阳光明媚的海南城市街头,椰树成行,现代化高楼林立,远处是清晰的城市天际线,蓝天白云映衬下充满热带风情。前景是一张铺有色彩斑斓民族风桌布的木质餐桌,上面摆放着两碗热气腾腾的海南特色美食:一碗是红亮油润的猪脚饭,搭配白米饭与翠绿葱花;另一碗是汤色浓郁的海南粉,配以肉末、豆芽、香菜和细滑米粉,蒸汽袅袅升起,令人垂涎欲滴。下方右下角落款 “「通义千问出版社」”,右下角添加红色小标签“吃一口就爱”。整体风格明亮、生动、高清写实,融合热带自然景观与现代都市背景,突出海南饮食文化与地域魅力,适合用于宣传海报设计。
2025-08-21 22:00:16
178
原创 WikiDocu:智能文档问答
WikiDocu 是一个创新的本地智能文档问答系统,它摒弃了传统检索增强生成(RAG)系统中复杂的向量数据库和语义检索流程,直接利用大语言模型(LLM)强大的上下文理解和泛化能力,对用户指定的本地文档进行联合分析,实现精准、可追溯的问答。在此基础上,本项目集成了强大的 Podcast-LLM 模块,不仅能从文档中提取信息进行问答,还能将文档内容(或研究主题)自动生成自然流畅的播客对话脚本,然后通过TTS技术合成自然流畅的音频。用户可以在通勤、运动或休息时通过听播客的方式了解技术内容,提升知识获取效率。
2025-08-21 14:32:43
771
原创 FinQ4Cn: 基于 MCP 协议的中国 A 股量化分析
FinQ4Cn是一个基于协议构建的开源项目,旨在为中国 A 股市场的量化分析提供一个强大、便捷、标准化的数据访问网关。它无缝集成了akshare强大的金融数据获取能力,并将其封装为一系列可通过 MCP 调用的工具,使得大型语言模型(LLM)、智能代理(Agent)或任何兼容 MCP 的客户端能够轻松、高效地获取中国股市的多维度数据,从而赋能更复杂的量化分析、策略研究和智能决策。FinQ4Cn 不仅仅是一个数据获取工具,它更是一个连接 AI 与金融市场的桥梁。通过标准化的 MCP 接口,它将akshare。
2025-08-11 23:22:05
1382
1
原创 DebateNet: 基于大语言模型的多智能体辩论框架
近几年,随着大型语言模型在自然语言理解与生成方面的能力不断增强,其在认知行为层面的表现也引发了广泛的研究兴趣。例如,“自我反思(self-reflection)”作为一种重要的元认知能力,通常指个体对自身思维过程进行内省、评估与调整的过程。已有研究表明,LLMs 在多种复杂的 NLP 任务中也能表现出类似“自我反思”的行为,从而提升其推理准确性与一致性。然而,已有研究表明,仅依赖单一模型的内部反思机制往往存在局限。当模型陷入固有偏见、逻辑循环或推理退化(如“
2025-07-10 09:17:50
812
原创 开源版本deepwiki:WikiDocu分析本地項目代码和文件包
假设你有一个项目包含 .md 说明文件及多个 .py 代码文件的文档目录,每个文件都详细描述了不同的 API 接口、使用方法以及相关的代码示例。这些 .md 文件提供了详细的文档说明,包括功能介绍、参数解释和调用示例,而 .py 文件则包含了实现这些 API 的源代码,并附有注释帮助理解其工作原理。,而是通过 LLM 的上下文理解能力,直接对用户提供的文档内容进行分析抽取,并围绕输入的问题生成结构化答案。它适用于快速查阅技术文档、研究报告、项目说明等文本内容的场景。),即可使用 Web 界面。
2025-07-10 09:05:48
919
原创 基于大型语言模型的google浏览器翻译插件
是一个基于大型语言模型(LLM)的 Google 插件,旨在为用户提供便捷的网页内容翻译服务。它的核心功能是允许用户与大模型进行简单对话(无历史聊天记录),但专注于翻译网页中的英文材料,帮助用户快速理解外文内容,打破语言障碍。开发的初衷是解决传统翻译工具(如 Google 翻译)在专业术语、上下文理解以及长文本翻译中的局限性,同时为用户提供一个轻量级、无需额外付费的翻译解决方案。
2025-02-28 15:08:07
1534
原创 GitHub高效搜索工具
你是否还在用手动筛选GitHub项目?你是否经常为了找一个合适的开源库翻遍搜索结果?这个工具或许能改变你的代码资源发掘方式…
2025-02-27 12:42:10
781
原创 数据挖掘智能Agent
集成了自然语言处理和代码生成功能,能够通过执行编写并执行Python代码解决各种任务和问题。对于数据处理、文件操作,以及其他编程任务,您都可以通过与助手的对话轻松完成。这款助手旨在通过自然语言交流简化您的编程工作流程,提高工作效率。
2025-02-14 09:44:03
1221
原创 大模型自主完成量化交易策略的开发与回测验证
定义代理:`agent = CodeAgent`,其参数作用如下:- `tool`: 列出为代理配备的工具,如回测和信息获取工具。- `model`: 指定用于辅助代码生成或决策的大模型。- `max_iterations`: 设置最大迭代次数,以避免无限循环。- `additional_authorized_imports`: 授权导入特定的Python算法包,丰富代理的代码编写环境。这样配置后,代理能够在受限且安全的环境中执行任务,同时具备必要的功能和资源来完成复杂的编程工作。
2025-01-08 21:13:14
2828
原创 LightRAG开源了…结合本地ollama实现股票数据接口Akshare智能问答
LightRAG`是由香港大学研究团队推出的一种检索增强生成(Retrieval-Augmented Generation, RAG)系统。该系统通过整合图结构索引和双层检索机制,显著提升了大型语言模型在信息检索中的准确性和效率。`LightRAG` 不仅能够捕捉实体间的复杂依赖关系,还能全面理解信息,处理具体和抽象查询,确保用户获得既相关又丰富的响应。
2024-11-25 17:46:39
1865
1
原创 llamaindex示例4:增强检索在股票数据分析中的应用:以AKshare为例
最近股市表现活跃,许多具备编程能力的朋友都希望利用自己的技术来挖掘和分析股票数据。希望通过技术分析为股票投资提供有力的决策支持。小编收集了国内可以正常使用的几个股票信息获取的财经数据接口库,最终选定了AKshare作为基础数据获取工具。选择AKshare的原因在于它是免费的,且提供的数据内容非常全面和广泛。不过,小编比较懒惰。文档包含的内容较为丰富,文档也相对复杂,阅读起来颇为费力。
2024-11-19 15:02:04
887
原创 当AI遇见金融信用评分卡建模
(Weight of Evidence)转换是一种将分类变量的每个类别映射到一个连续的数值的方法,这个数值反映了该类别相对于参考类别(通常是目标事件发生率最低的类别)对目标事件发生概率的影响强度。这是此项目唯一的亮点和创新性,将llm融入评分卡建模的过程,目前市场上是不多见的。这是评分卡建模最后一步,生成评分卡,及评分的PSI值评估,目前看模型生成的评分卡PSI是接近正太分布,而且PSI=0.0097,这个数值非常好的。着急分析,目前ai值实现了读取样本数据的特征列表和目标值,以下的与与助手聊天的过程。
2024-10-13 07:51:58
2522
2
原创 llamaindex示例3:使用人工智能解读A股上市公司年报
为了准确查找报告信息,使用llamaindex优势之一:构造一个SubQuestionQueryEngine子查询函数。f"提供了 西藏珠峰公司 的 {year}年年度报告"),),description=("当你想要回答那些需要分析 西藏珠峰公司 多个年度报告的问题时非常有用"),),前面所有步骤都是准备工作,现在开始通过LLM的代理进行财报分析 ...#定义成工具查询"根据西藏珠峰公司近两年的年度报,分析西藏珠峰公司的风险及业绩亮点"
2024-09-19 10:58:38
1542
原创 llamaindex示例1:Hello World!
LlamaIndex是一个便捷的工具,它架起了自定义数据与强大的大型语言模型(如GPT-4)之间的桥梁。这一工具使得数据更易于访问,并为开发更智能的应用程序和工作流程奠定了基础。LlamaIndex在大型语言模型迅速发展的背景下,它如同一个多用途工具箱,在数据处理和大型语言模型应用的各个环节提供支持——从数据的摄取、结构化、检索到与应用框架的集成。LlamaIndex是构建基于大型语言模型支持的稳健应用程序的理想平台,适用于复杂问答系统、交互式聊天
2024-09-14 12:41:12
806
原创 llamaindex示例2:智能的pandas
相信做python数据分析的小伙伴,都想尝试下pandasai的智能化有多方便,但是苦于没有openai的key所以,都望而止步。代码中llm = Ollama(model="phi3:3.8b", request_timeout=360)加载本地模型。今天采用llmllamaindex搭配本地的LMM来实现pandasai相同的功能。安装本地phi3模型,怎么安装ollama请查看前面教程,这里不再赘述。
2024-09-13 22:47:30
932
原创 基于Shiny的LLM对话框
Shiny 最初是一个 R 语言的包,由 RStudio 开发,它的主要作用是允许用户创建交互式的 Web 应用程序而无需深入学习复杂的 Web 开发技术,我相信做R开发的同学基本都知道这个R包。简化 Web 开发:Shiny 提供了一种简便的方法来创建 Web 应用程序,这使得数据分析师和研究人员能够专注于他们的数据和分析,而不是 Web 开发的技术细节。数据可视化:用户可以通过 Shiny 创建动态且交互式的图表和其他可视化元素,这些元素可以根据用户的输入实时更新。
2024-09-04 20:51:14
1059
原创 本地ollama的LLM模型运行微软GraphRAG
在当前目录下新建一个目录./ragtest/input,用于存放我们初始化graphrag需要的相关文件。其中ragtest到时候系统会参数其他配置文件和目录,input目录需要我们自己放置要解析的txt文件。默认graphRag使用的openia的key,要改用本地的llm需要修改相应的代码和配置,我已经整理好修改步骤,按如下步骤修改即可。根据红色的位置,修改ragtest目录下的settings.yaml相应的内容。前面的步骤完成后,运行索引,创建graph。脚本原来以上两个原函数,使用的新脚本替换。
2024-09-03 12:36:44
1079
原创 autogen示例六:在群聊代理中加入索引增强代理
在利用代理群聊协作解决复杂问题时,往往需要指定某一代理负责从特定知识库中检索信息,从而为群聊提供精准且可靠的知识来源。在此示例中,我们采用了一种群聊对话的形式,并引用了论文《https://arxiv.org/html/2408.08921v1》中的研究内容,探讨了大语言模型(LLMs)、检索增强生成(RAG)以及基于图的检索增强生成(GraphRAG)这三种方法之间的差异及其各自的优缺点。接下来,请参阅相关代码: 第二步,处理huggingface访问的网络问题 第
2024-09-02 10:01:07
1017
原创 autogen示例五:一句话实现模型SHAP特征解释
SHAP(SHapley Additive exPlanations)是一个用于解释复杂机器学习模型预测结果的框架。它基于博弈论中的Shapley值,用于公平地分配每个特征对最终预测结果的贡献。这种方法不仅能够提供单个预测的解释(局部解释),还可以用来分析模型的整体行为(全局解释)。它的核心思想是通过计算特征对模型输出的边际贡献来解释模型。具体而言,它尝试回答这样一个问题:“当我们将特征添加到模型中时,模型的预测如何变化?
2024-08-27 21:41:05
2372
原创 从零搭建linux本地私有大模型,及兼容Openai Api
当下大家都在热衷于大规模模型训练、精细调整大型语言模型,并竞相升级GPU性能的时候,我却选择了一条不同的道路——默默寻找那些被忽视的资源和机会。作为一名拥有超过十年经验的IT行业工作者,我对人工智能技术充满了好奇与热情。然而,要涉足这一领域,最基础的门槛之一便是拥有一台能够处理复杂计算任务的高性能服务器。又或者通过付费访问阿里的通义千问、百度的文心一言等付费模型的API,笔者自己目前就在用阿里的千问大模型API进行开发。
2024-08-24 16:00:20
2004
原创 autogen示例四:自动构建多智能体系统分析上市公司股票波动
可以自动、快速、轻松地构建用于复杂任务的多智能体系统,只需最少的用户提示,类根据提示,拆解任务,然后生成响应的智能体完成对应的任务。在本例,我们介绍了一种名为的流水线,可以自动构建用于复杂任务的多智能体系统。它将在用户提供建筑任务和执行任务的描述后,自动完成参与者专家智能体的生成和群组聊天的构建。
2024-08-21 15:55:55
1339
原创 autogen示例三:教LLM解私有化知识
这里我对teachability进行了一些改造,为了避免聊天过程中,代理错误的学习一些非预计的知识,我定义了两个代理:一个学习代理,一个问答代理。例如,公司的专有名词(如部门名称、产品代号)、内部员工之间的关系、公司的规章制度以及特定业务流程等,这些都是通用模型在未经过特定训练的情况下难以把握的内容。即使是在预算允许的情况下,也需要具备一定的专业知识来处理模型训练过程中的各种复杂问题,比如如何选择合适的架构、如何有效地清洗和预处理数据、如何设置合理的超参数等。根据之前的对话,我发现了有用的信息。
2024-08-17 22:08:48
1114
原创 autogen示例二:会思考的LLM
,************* 征信信用风险评估报告:张十五 *************--客户基本信息--张十五,男,现年42岁,已婚,有稳定家庭生活,目前在职,显示有稳定就业。他拥有本科及学士学位,表明具有良好的教育背景。张十五曾就职于多个知名企事业单位,如中国人民银行征信中心、北京大学、中科院微电子研究所等,工作单位性质涵盖机关、事业单位及外资企业,行业涉及金融业、科学研究和技术服务业,担任过中级领导及一般员工职务,拥有中级及初级职称,显示出其职业生涯的多样性与稳定性。
2024-08-14 21:30:09
1123
原创 windows下搭建ollama离线大模型服务
Ollama是一个由Facebook AI Research开发的开源、轻量级且高效的大型语言模型(LLM)框架。它旨在使研究人员和开发人员能够更轻松地在自己的硬件上部署和运行LLM,而无需专门的云计算资源。OllamaOllama提供了一个简单直观的界面,用于加载、运行和评估LLM。它还支持各种自定义选项,允许用户根据特定需求定制LLM。
2024-07-30 21:38:56
3042
2
原创 autogen示例一:多嵌套agent对征信报告进行信用风险评估
我这里使用的是本地lm-studio平台的api,qwen2模型。建议使用阿里,百度,获取其他官方的免费api。可以在 register_nested_chats 函数的 chat_queue 参数中指定关于聊天序列的信息。本例还有许多不足,如征信风险未能完全识别,个别信息获取错误,以及报告没有按专业排版,并以pdf格式输出等。本例只做学习交流使用。(4)user:用户代理,负责完成人类的命令任务。文章主要演示autogen多嵌套代理处理复杂任务的使用学习示例,已经autogen的rag如何实现。
2024-07-28 22:07:02
1324
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人