自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

skywalk8163的专栏

人工智能,你上你也行!

  • 博客(1319)
  • 收藏
  • 关注

原创 Python、Ubuntu、FreeBSD、docker、Huggingface、github、npm等常用加速镜像

python pip用清华源:https://pypi.tuna.tsinghua.edu.cn/simple。然后git clone的时候就会自动到镜像站https://githubfast.com/去下载了,亲测有效!使用https://kkgithub.com/ 和https://githubfast.com/https://githubfast.com/ 速度快,但是不支持web浏览,只支持git下载。https://kkgithub.com/ 支持下载和浏览。

2025-02-22 07:00:00 1829 1

原创 尝试升级SCNet DCU异构系统VLLM版本(失败)

摘要:在Ubuntu 22.04系统上安装SCNetDCU时遇到cupy安装失败问题。尝试通过设置环境变量(CUPY_INSTALL_USE_HIP=1,ROCM_HOME=/opt/rocm)并安装hipCUB库来解决,但编译时出现"hipcc must be used as C++ compiler"错误。后续尝试安装torch 2.5.1、lightop和vllm等组件,但最终因hipCUB安装失败导致升级未成功。主要问题集中在hipCUB的编译环境配置和cupy的兼容性问题上。

2025-12-13 19:11:32 81

原创 openi启智社区部署FoundationModel / DeepSeek-Coder-V2-Lite-Instruct大模型(max_model_len设小才可以,比如设为32k)

摘要:在OpenI启智社区尝试使用NPU和DCU环境运行DeepSeek-Coder-V2-Lite-Instruct大模型推理时遇到多重问题。首先NPU环境(CANN83)和DCU环境(DCUK100)均启动失败。随后在VLLM调用时发现模型配置文件存在语法错误(多一个右括号),通过创建软链接并修改配置文件解决。但最终因显存不足无法满足模型最大序列长度(163840)要求,即使将gpu_memory_utilization设为0.99仍无法突破43K tokens限制。由于OpenI仅提供单卡环境,导致该

2025-12-13 19:07:20 762

原创 openi启智社区提供大模型在线体验功能

OpenI启智社区提供在线大模型体验功能,用户可选择不同模型和计算资源创建最多3个并发任务。以Meta-Llama-3.1-8B-Instruct模型为例,支持NPU加速运行,实测效果良好但缺少API调用功能。社区还提供调试模式,可通过c2net库在代码中调用预训练模型,如DeepSeek-R1-0528-Qwen3-8B等模型资源。相比侧重文心模型的星河社区,启智社区在模型多样性方面更具优势。

2025-12-12 22:20:28 278

原创 试试这个模型Qwen3-Coder-30B-A3B-Instruct

本文记录了调试Qwen3-30B大语言模型的过程。主要内容包括:1) 尝试多个30B参数规模的模型版本(Qwen3-Coder-30B、Qwen3-30B等);2) 解决vLLM框架启动报错,包括模型路径格式、架构不支持等问题;3) 调整GPU内存参数(--gpu_memory_utilization)和序列长度(--max_model_len);4) 最终通过双DCU卡成功启动模型,GPU利用率达100%。调试过程中发现30B模型可处理64k上下文长度,但在实际测试中遇到400错误(请求token数超出限

2025-12-11 23:56:08 912

原创 SCNet使用Vllm跑qwen 32b模型,但是在Auto-coder中调用发现效果不行

本文记录了在SCNet平台搭建vLLM服务运行Qwen-32B模型的实践过程。作者首先通过Gradio界面测试模型效果,发现该模型回答质量不佳且不支持function call功能。随后尝试通过命令行启动vLLM服务,遇到KV缓存不足的问题,通过调整gpu_memory_utilization和max_model_len参数解决。最终虽然API调用测试成功,但模型在Auto-Coder中的表现仍不理想,无法满足自动化编程需求。文章最后提出将尝试Qwen3-Coder-30B模型作为下一步目标。整个过程展现了

2025-12-11 10:52:45 636

原创 能用自然语言透明地解释每一步的推理过程‌,彻底打破了传统AI的“黑盒”模式的围棋AI大模型:InternThinke

摘要:InternThinker是一款突破传统AI"黑盒"模式的智能系统,其核心功能在于用自然语言透明解释推理过程。该系统具备职业级围棋水平,能像人类教练般分析棋局、评估落点,甚至解读经典妙招。目前提供网页版公测,需注册使用但不支持API调用。系统还包含Intern-S1-MO模块,具备解决国际数学奥赛难题的能力,并支持棋谱导入研究功能。(149字)

2025-12-10 22:36:36 471

原创 Katago+Sabaki个人围棋AI工具安装配置(实践未完成)

摘要:本文记录了在Windows系统下配置Sabaki围棋软件调用Katago AI引擎的实践过程。作者尝试了多种方法,包括本地CPU编译安装、远程V100服务器部署以及Lizzieyzy工具集成,但因系统环境问题(CUDA驱动缺失、Eigen3库安装失败)均未成功。文章详细描述了Sabaki软件功能、Katago引擎配置步骤、Linux环境编译方法以及遇到的编译报错问题,最终以实践失败告终,但为围棋AI工具整合提供了有价值的参考路径和技术排错记录。

2025-12-10 21:56:29 1089

原创 第一次安装FreeBSD15.0 Release版本

摘要:本文记录了在盈通PT55D主板(Intel Atom D525处理器,4GB内存)上安装FreeBSD 15.0 Release版本的过程。使用中科大镜像下载memstick安装包并制作启动U盘,特别提到15.0新增的离线安装功能。配置pkg源加速使用USTC镜像,安装wget、sudo等常用工具后,系统显示极低内存占用(最低0MB Active),进程ID从0到17连续排列,展现了FreeBSD 15.0的高效资源管理能力,作者对其性能表示惊叹。

2025-12-09 23:26:54 459

原创 LLM API Gateway:使用Comate Spec Mode创建大模型调用中转服务器

摘要:本文档描述了一个本地大模型API网关(LLMAPIGateway)的开发方案,该网关基于Node.js+Express实现,旨在统一管理多个大模型供应商的API调用。系统包含配置管理、请求转发、响应处理等核心功能,支持OpenAI兼容格式,并提供健康检查、日志记录等辅助功能。文档详细列出了8个开发任务,涵盖从项目初始化到最终测试的全流程,并记录了开发过程中遇到的配置管理、API密钥处理等技术问题及解决方案。

2025-12-09 21:27:15 814

原创 使用freebsd-update 升级14.3到15.0后,重启,再次执行freebsd-update install ,一直卡住 。而且发现这时候ssh登录过来,也是一直卡住,没有出现ssh登录的界

摘要:在尝试将FreeBSD 14.3升级至15.0时遇到严重问题。使用freebsd-update升级后系统卡住,且SSH无法登录。后续操作中pkg工具报错,显示无法确定ABI和解析配置文件。尝试通过pkg bootstrap修复未果,最终因系统崩溃而重装。整个升级过程失败,表明14.3到15.0的升级可能存在较大风险。建议用户在执行此类大版本升级时做好充分备份准备。

2025-12-08 20:48:50 253

原创 pkg update pkg: Unable to determine the ABI, none of the ABI_FILEs can be read.pkg: Cannot parse co

摘要:FreeBSD系统出现pkgupdate报错,无法确定ABI导致几乎所有命令无法执行。通过修改/usr/local/etc/pkg.conf和/etc/defaults/rc.conf文件添加ABI和OSVERSION配置,尝试强制升级pkg并安装coreutils包。但由于中科大镜像源找不到coreutils包导致安装失败,尝试更换官方源也未成功。最终系统陷入重启循环,不得不选择重装系统。问题根源在于镜像源配置不当导致关键包缺失,在即将成功修复时功亏一篑。

2025-12-08 20:45:55 243

原创 为一个库设置多个远程更新站用于git push,比如gitcode github等

本文介绍了如何为GitCode库添加GitHub推送功能。首先通过git remote add命令添加GitHub远程仓库,命名为github。在推送时遇到冲突,因为GitHub仓库存在LICENSE文件而本地没有。由于不想通过git pull合并,最终采取删除并重建GitHub仓库的方案,创建时不选择LICENSE文件,从而成功推送。这种方法适用于需要完全覆盖远程仓库内容的情况。

2025-12-06 21:39:24 437

原创 postmarketos一个专为智能手机和平板设备设计的开源 Linux 发行版 支持红米2

PostmarketOS是一个基于Alpine Linux的开源移动操作系统,旨在延长智能手机和平板的使用寿命。它支持700多种设备,包括旧款三星、小米等机型,通过主线Linux内核实现硬件兼容。常见问题速查显示:用户可查询官方设备列表确认兼容性,目前对部分小米设备(如Pocophone F1、Mi Pad 5 Pro等)的支持仍停留在较旧版本。系统提供完整的设备控制权,适合希望继续使用老旧设备的用户。

2025-12-06 21:38:20 380

原创 GLM-edge-1.5B-chat 一个特别的cpu可以推理的小型llm模型

GLM-edge-1.5B-chat是一个面向边缘设备优化的轻量级大语言模型。测试发现该模型在不同推理框架下表现差异显著:在Ollama中使用通用提示模板时回答逻辑混乱(如"树上10只鸟"问题给出错误答案),而在llama.cpp中正确使用ChatGLM专用提示模板后则能给出合理回答。分析表明,模型性能差异源于提示模板的不一致使用,ChatGLM系列需要特定格式的对话标签才能正常工作。文章还记录了从魔搭社区和Huggingface镜像下载模型的多种方式,以及使用llama.cpp编译时遇

2025-12-05 15:07:23 915

原创 来自法国的“小”模型,“大”智慧:mistral AI大模型

MistralAI是法国公司推出的开源大语言模型系列,其中Mixtral8x7B采用混合专家架构,以低成本实现接近GPT-3.5的性能。最新发布的Mistral3模型支持256K上下文和图像输入,可通过Ollama本地或云端运行。测试显示该模型在英文技术问题(如vLLM的CPU推理支持)上表现精准,但在中文语境理解(如"树上打鸟"问题)上与国内模型存在思维差异。虽然相比DeepSeek等顶尖开源模型仍有差距,但Mistral提供了宝贵的多样性补充,其多语言能力和特定领域的专业表现使其成为

2025-12-05 10:35:00 728

原创 winget 是微软官方推出的 Windows 包管理器(Windows Package Manager)

摘要: winget是微软推出的Windows包管理器(Windows Package Manager),支持命令行快速安装、更新和卸载软件。它随Windows 11内置,Win10用户可通过更新获取。winget通过YAML清单文件管理软件包,支持搜索、静默安装、批量更新等操作,但安装过程可能遇到权限或网络问题。相比Chocolatey和Scoop,winget更官方但生态规模较小,适合脚本化部署开发环境。用户反馈其安装体验不佳,可能存在下载慢或注册失败问题。

2025-12-04 23:03:41 674

原创 使用Ollama实现一键本地部署deepseek-v3.1:671b超级大模型,太阳照进现实里!

摘要:Ollama现支持在本地部署deepseek-v3.1:671b等大型语言模型,突破硬件限制。通过简单安装Ollama并登录认证,用户可轻松拉取云模型到本地运行,支持多机同时使用。提供两种调用方式:本地部署(使用OpenAI库)或直接调用Ollama云API(需Python库)。目前支持12个云模型,包括glm-4.6、gpt-oss:120b等四大高性能模型。该方案解决了用户硬件不足的痛点,使大模型本地化部署成为可能。(150字)

2025-12-04 09:30:53 1476

原创 智能营养食谱平台 - 项目创意策划书

智能营养食谱平台策划摘要 本项目基于AI技术打造智能营养管理平台,通过精准分析食谱营养成分(热量、蛋白质等),为用户提供个性化饮食建议。核心功能包括智能食谱解析、营养计算可视化、多元化查询系统,采用Python+Flask技术栈,支持Web/命令行多端操作。目标用户覆盖健身人群、家庭主妇及慢性病患者等,满足85%城市居民的健康饮食需求。商业模式采用B2C/B2B双轨制,通过订阅服务、增值咨询及企业合作变现。竞争优势在于自主研发的食材匹配算法(准确率95%)和权威营养数据库。预计3年内实现百万用户规模,创造5

2025-12-03 23:37:23 728

原创 用Trae的sole模式来模拟文心快码comate的Spec Mode模式来做一个esp32操作系统的项目4:尝试把micropython移植过来, 那样就能在命令行里执行python语句了(放弃)

还行,功能做出来了calc没有回显,不过这不算问题。暂时就先做成这样了,以后在更新。

2025-12-03 23:35:58 712

原创 用Trae的sole模式来模拟文心快码comate的Spec Mode模式来做一个esp32操作系统的项目3:调试WiFi +telnet

摘要:本文记录了ESP32C3FreeRTOS项目的开发过程,主要包括以下成果:1) 修复了help命令导致设备重启的问题,优化了代码结构并完善文档;2) 成功实现WiFi连接功能,解决设备重启问题;3) 添加了telnet远程登录服务,支持多客户端管理并实现exit命令功能。项目已完成FATFS文件系统初始化、WiFi连接、CLI命令扩展(包括cp、mv、chmod等)和稳定的telnet服务,所有功能均测试通过,设备运行稳定。

2025-12-02 11:59:03 902

原创 Windows 10秘籍:一键启用Telnet,掌控远程连接!

本文介绍了在Windows10系统中安装和使用Telnet客户端的方法。首先通过控制面板启用Telnet功能:在"程序和功能"中选择"启用或关闭Windows功能",勾选Telnet客户端后完成安装。安装成功后,在命令提示符输入telnet命令验证,显示命令提示符即表示安装成功。文章还提供了Telnet的基本使用方法,包括连接远程设备(telnet [IP] [端口])和退出连接(quit或exit)等操作说明。这些步骤对于需要通过Telnet管理ESP32C3等开发

2025-12-02 09:52:10 534

原创 用Trae的sole模式来模拟文心快码comate的Spec Mode模式来做一个esp32操作系统的项目2

本文记录了在ESP32C3开发板上实现文件系统和命令行界面的过程。项目成功实现了FAT文件系统功能,包括文件读写、目录操作等,并构建了基本的CLI界面支持help、ls等命令。开发过程中遇到了堆栈溢出、提示符重复输出等问题,通过增加任务堆栈大小、优化输入处理等方法解决。最终系统能够稳定运行,但发现FATFS不支持文件名大小写,尝试移植BusyBox未果后改用esp_console扩展命令。文章详细记录了问题分析、解决步骤和系统优化过程,为嵌入式系统开发提供了实用参考。

2025-12-01 22:47:07 1033

原创 用Trae的sole模式来模拟文心快码comate的Spec Mode模式来做一个esp32操作系统的项目

本文记录了在ESP32-C3开发板上基于FreeRTOS实现类FreeBSD系统的完整开发过程。主要内容包括:1. 项目初始设计阶段,从RTEMS方案调整为FreeRTOS+ESP-IDF方案;2. 详细的环境搭建步骤,包括ESP-IDF工具链安装、加速配置和QEMU模拟器安装;3. 项目构建和烧录过程,解决了分区表大小不匹配、子模块初始化失败等问题;4. 功能测试结果,成功实现了系统启动、LED控制、WiFi连接等基础功能;5. 开发过程中的问题排查,包括环境变量设置、编译错误处理等。最终在ESP32-C

2025-12-01 21:12:14 1048

原创 空间、方位等的环境很重要。比如同样吃了吗?不同环境,意思不一样。来到CSDN,同样一个关键字“语音”,我们知道它大约是来找关于语言或者自然语言AI模型相关信息的。 增加环境信息后,可以大大增

语境信息对自然语言理解至关重要。汉语作为高语境语言,其语义高度依赖环境信息。在编程场景中,环境信息包括项目类型、代码上下文、用户偏好等,能显著提升AI对自然语言指令的理解准确度。通过构建"环境感知型"编程系统,整合多模态信息,可以实现更自然的汉语直接控制编程,使AI能像人类同事一样理解上下文并生成精确代码。这是实现自然语言编程从"能用"到"好用"的关键路径。

2025-11-29 07:00:00 818

原创 社恐翻译器(黑客松创意小作品),CCF程序员大会码力全开:AI加速营决赛入围名单之一

社恐翻译器是一个创意工具,通过语音识别和大模型分析帮助社交恐惧者理解对话中的客套话,提炼真实意图并给出回应建议。项目支持麦克风录音、实时转写和AI分析功能,采用中文识别和Qwen3-max模型。亮点包括可视化录音状态、手动/连续录音模式以及异步分析。开发者提供了macOS环境下的快速启动指南,强调密钥安全和权限设置。该项目具有明确的社交场景应用价值,适合黑客松演示和扩展,可替换模型或增加多语言支持。开发者认为该工具娱乐性强,适用于评委点评翻译或播主整活等场景。

2025-11-29 07:00:00 1016

原创 ERNIE-Speed-128K 模型调用指南 python代码+curl

摘要:文心大模型ERNIE-Speed-128K提供免费调用服务,适用于小型项目开发。文章提供了Python和cURL两种调用方式:Python需安装OpenAI SDK并设置API Key,通过指定base_url和model参数发起请求;cURL方式则需要设置请求头包含Authorization和Content-Type,并通过POST发送JSON格式请求。两种方法均以简单的问候消息为例演示了API调用流程。API Key获取地址和模型列表参考链接也一并提供。

2025-11-28 20:12:01 343

原创 使用文心快码Comate Spec Mode为小说阅读神器增加AI总结功能

摘要:本文记录了使用文心快码Comate为小说阅读神器添加AI总结功能的过程。通过SpecMode模式,系统化地完成了从需求理解到功能实现的完整流程,包括AI模型配置管理、API客户端开发、用户界面集成等核心功能。开发过程中遇到模块导入错误、配置保存失败、流式响应超时等问题,通过调试逐步解决。最终实现了支持多种OpenAI兼容模型、流式响应处理、自动降级等功能的智能文本总结系统。文章特别强调了SpecMode模式在保持开发可控性方面的优势,以及AI辅助开发中调试工作的重要性。测试结果显示,系统成功调用AI模

2025-11-28 15:38:41 1518

原创 思想风暴:只用中文常见字,常用语,能否实现图灵等价? 答案是可以!

本文探讨了中文自然语言编程的可能性与实现路径。核心观点是:通过"定义、函数、宏拓、条件"四个双字关键词即可构建图灵完备的中文编程语言,其他语法元素通过宏扩展实现。文章提出"受控中文"概念,即采用固定词表和句式,结合中文标点定界,在保持自然表达的同时确保可解析性。设计上强调极简内核(仅四个关键词)、宏系统派生丰富句式、中文标点替代括号、块结构组织代码等特点。实现方案建议将中文语法映射到AST,最终编译到JS/WASM等平台,并提供了阶乘、循环等10个示例程序。这种设计既

2025-11-27 22:11:24 1137

原创 <![CDATA[...]]> 是 XML/HTML 文档中用于声明“字符数据区域”的特殊标记,其核心作用是将括号内的内容视为纯文本而非标记语言,从而避免特殊字符(如 <、>、&)被解析器错误识别为标

CDATA是XML/HTML中用于声明字符数据区域的特殊标记,其作用是将包含特殊字符(如<、>、&)的内容作为纯文本处理,避免被解析器误判。语法为<![CDATA[内容]]>,适用于嵌入代码片段、富文本等场景。需注意不能嵌套使用且内容不能包含]]>。在HTML5中,<script>和<style>标签默认具有CDATA特性。与.gitignore等纯文本文件无关,后者直接使用#注释和通配符定义规则。CDATA是保留原始格式的有效工具,但需考虑解析

2025-11-27 13:32:17 557

原创 【闪电部署!】3分钟Linux秒建私有GitHub——Gitea极速安装全攻略

本文详细介绍了Gitea的安装配置流程以及与各类软件的集成方案。主要内容包括:1)从官网下载二进制文件并配置运行环境;2)创建专用用户和目录结构;3)启动服务及初始化设置;4)重点阐述了Gitea与WordPress等30多种软件的集成方法,涵盖身份认证、CI/CD、项目管理等场景;5)提供了常见问题解决方案,如root权限报错处理。文章强调Gitea作为轻量级Git托管平台,通过Webhook、OAuth2等机制能与现代软件生态无缝对接,90%的集成仅需简单配置即可实现。

2025-11-26 22:53:37 1072

原创 我用Comate 2天写了一个读小说神器

摘要:NovelReaderHelper是一款多功能小说阅读辅助工具,支持主流小说网站的智能浏览、内容提取、OCR识别和AI总结功能。工具提供快捷导航、本地文件支持、自动提取章节内容,并可通过AI生成内容摘要。安装简单,支持快速安装(基础功能)或完整安装(含OCR)。系统要求Python 3.8+,兼容Windows/macOS/Linux。特色功能包括精准内容提取、图文识别合并、智能摘要生成及多格式导出。项目使用文心快码Comate辅助开发,大幅提升开发效率。

2025-11-26 04:00:00 1394

原创 git基本操作,比如创建分支,提交分支到远程

Git 基本操作指南摘要: 本文介绍了 Git 的核心概念和日常操作流程。主要内容包括: 核心概念:工作区、暂存区和本地仓库的关系 首次配置:设置用户名和邮箱 基础工作流:初始化/克隆项目、添加文件、提交修改 分支操作:创建/切换/合并/删除分支 远程协作:推送和拉取远程仓库 撤销操作:工作区、暂存区和提交的撤销方法 常用命令速查表 重点讲解了分支管理技巧,包括创建分支(git switch -c)、合并分支(git merge)等核心操作。同时提供了实践示例,展示如何将本地main分支推送到远程仓库。适合

2025-11-25 22:17:22 1104

原创 用文心快码Comate AI 用一天时间写了一个轻量级jikuaiexplorer浏览器

摘要:使用文心快码ComateAI快速开发了一个轻量级跨平台浏览器jikuaiexplorer,主要功能包括网页浏览、前进/后退按钮、查看源码等。开发过程显示AI可快速生成原型(约2-3小时),但调试耗时更长(10倍于开发时间)。项目遇到的主要挑战包括:部分网页链接无法打开(需针对性修复)、Git版本控制操作(最终手动完成)以及跨平台兼容性问题(FreeBSD需额外配置)。项目源码已托管至GitCode,支持Linux/MacOS一键安装运行,Windows需手动安装依赖。

2025-11-25 11:43:58 778

原创 FreeBSD系统安装VSCode Server(未成功,后来是在FreeBSD系统里的Linux虚拟子系统里安装启动了Code Server)

在FreeBSD系统上安装CodeServer遇到诸多问题:1) 初始安装提示需要npm和node v20;2) 尝试安装npm-node24失败后改用node22;3) 设置淘宝镜像加速仍出现依赖问题;4) 安装python3.12后依然报错;5) 最终因大量依赖包下载失败和文件缺失问题放弃安装,改为在Linux虚拟子系统中成功部署。整个过程凸显了FreeBSD环境下CodeServer安装的兼容性问题。

2025-11-24 22:21:01 666

原创 linux安装Code Server 以便Comate IDE和CodeBuddy等都可以远程连上来

本文记录了在FreeBSD环境下安装CodeServer失败后,转而在Ubuntu虚拟机中成功安装的过程。主要内容包括:1)通过二进制方式安装Node.js并配置环境变量;2)使用npm更新npm版本;3)通过curl命令一键安装CodeServer;4)配置CodeServer服务并获取访问密码;5)通过8080端口实现远程访问。文章还提到在安装过程中遇到的HTTP2协议问题,改用HTTP1.1协议后成功解决。最终得出结论:CodeServer在Linux环境下安装简便,但在FreeBSD下可能遇到较多困

2025-11-24 22:19:49 499

原创 外网ssh登录freebsd 的jial 虚拟机,却总是登到宿主机,怎么解决?困惑了我好几年的问题,终于解开了:原来是虚拟机上没有开ssh的服务导致的!

摘要:作者长期遇到外网SSH连接FreeBSD的jail虚拟机时总是登录到宿主机的问题。通过检查发现虚拟机内未运行SSH服务,在FreeBSD虚拟机中启动sshd服务,或在Linux虚拟机中安装openssh-server并启动服务后,问题得以解决。原来区分连接目标的关键在于对应系统是否运行SSH服务,而非IP地址本身。这个困扰多年的问题最终通过启动虚拟机内的SSH服务得到解决。

2025-11-22 20:45:35 537

原创 CodeBuddy的免费极限让我用出来了usage exceeds frequency limit, but don‘t worry, your usage will reset at 2025-11

摘要:用户使用CodeBuddy时遇到频率限制错误(Code:6004),系统提示使用量将在2025年11月22日20:23:30(UTC+8)重置。该任务可能始于当日10:50:22,用户ID为e247e024-eede-46a9-abbe-a96934b493f7,消息ID包含d652240ab38e4d11b9074f6940325efa等标识信息。

2025-11-22 20:26:57 1373 1

原创 github创建项目后,应该用main还是master作为默认branch?

GitHub自2020年10月起已将默认分支从master改为main,以推动更具包容性的术语。功能上两者完全一致,但新项目应优先采用main分支。若旧项目使用master,建议通过git branch -m master main命令迁移。实际操作中可能遇到冲突问题,需通过git pull解决合并后再推送。最佳实践是在项目初始化时就创建main分支,避免后续迁移的麻烦。这一变更体现了技术社区对包容性术语的重视,开发者应主动适应这一规范。

2025-11-21 09:52:21 688

原创 2天用Comate文心快码来帮助我做一个Chrome浏览器本地英汉翻译插件

本文记录了使用百度Comate开发本地英汉翻译插件的全过程。作者通过快速Zulu功能(30天内500次免费调用)完成了项目开发,包括解决模型选择、库依赖等问题。最终实现了基于本地翻译模型的浏览器插件功能,支持文本、网页翻译,并将代码托管到GitCode。文章总结了Comate的使用体验:虽偶有模型"卡壳"现象,但在合理引导下能高效完成开发任务,其专业版表现不逊于其他AI编程工具。作者认为优秀的产品规划能显著提升AI编程效率,并分享了项目地址和安装文档链接。

2025-11-21 08:33:48 1146

使用codebuddy进行现代Kotti框架开发

codebuddy进行两轮的输出,可能还需要调试 方式1:推荐(简化启动)   cd modern-kotti   ./simple-start.sh   方式2:测试环境   cd modern-kotti   ./test-setup.sh      # 检查配置   ./test-docker.sh     # 测试Docker   ./simple-start.sh    # 启动应用   方式3:传统Docker Compose   cd modern-kotti   docker-compose up --build -d   访问地址   启动成功后:   - 前端应用: http://localhost:3000   - 后端API: http://localhost:8000   - API文档: http://localhost:8000/docs   默认账户   - 管理员: admin / admin123   - 编辑者: editor / password123   - 访问者: viewer / password123   其他选项   如果还有问题,可以查看:   - DOCKER_TROUBLESHOOTING.md - 详细故障排除指南   - docker-compose logs - 查看服务日志   - 本地开发模式 - 运行PostgreSQL和Redis容器,前后端本地开发   现在请运行 ./simple-start.sh 来启动整个应用!

2025-11-12

Arc3.2语言适配Racket 8.11.1-1 版本

由于Arc算是一种非常老的新语言,好久没有更新了,所以Racket新版本里已经没有Arc适配的一些库了,比如mzscheme等。 这个版本就是更新了报错部分,可以在Racket 8.11.1_1 版本适配的Arc3.2语言! Arc这个语言还是挺有趣的! 具体升级过程见:https://blog.csdn.net/skywalk8163/article/details/148374132

2025-06-02

支持pyramid2.x的kotti web代码

Kotti 是一个基于 Pyramid 框架的 Python 内容管理系统(CMS),适合用来搭建中小型网站、文档库、企业展示平台、知识库等需要灵活内容结构和权限模型的项目。它本身更像一个可以二次开发的 CMS 框架,比 WordPress、Drupal 这类“一装就用”的系统更倾向于开发者定制和扩展。 这是支持pyramid2.x版本的kotti! tar -xzvf kotti1.0.tar.gz 解压缩 进入目录执行 pip install -e . 来安装, 然后执行pserve app.ini 启动。 用浏览器浏览127.0.0.1:5000 即可浏览。 用户名admin ,口令qwerty 当前版本: 打包1.2 :kotti1.2.tar.gz,项目2.0.10dev2 版本 升级依赖库到新版本beaker==1.13.0 mako==1.3.10 waitress==3.0.2 webob==1.8.9

2025-05-21

FreeBSD14.2系统下VSCode1.99 pkg安装包

FreeBSD14.2系统下VSCode1.99 pkg安装包 2025.4.17日编译,支持pkg2.1版本 AMD64位FreeBSD 14.2系统。 使用pkg install vscode-1.99.2.pkg命令安装 安装好后,使用code-vss 启动VSCode编辑器。

2025-04-17

AIOCR:AI文字识别web集成系统@Kylin+RISCV

AIOCR:基于kotti_ai的AI文字识别web集成系统 在Kylin+RISCV搭建一个kotti_ai构架的网站,提供AI OCR文字识别web服务。 本系统已经在Kylin+RISCV(算能云)测试通过。理论上在Ubuntu和FreeBSd下应该也是可以的。 功能: 1 AI 文字识别功能即ocr推理 2 web集成功能即web内容管理系统 技术实现 ocr推理部分 飞桨框架安装,参见https://blog.csdn.net/skywalk8163/article/details/136610462 ocr推理,参见:飞桨AI应用@riscv OpenKylin-CSDN博客 web框架部分 Kotti_ai框架调通,参见:安装调试kotti_ai:AI+互联网企业级部署应用软件包@riscv+OpenKylin-CSDN博客 为kotti_ai添加ocr文字识别部分 。具体安装和使用,参考文档:https://blog.csdn.net/skywalk8163/article/details/136869487

2024-03-24

飞桨安装文件@算能云openKylin@ riscv64

算能云riscv64环境,openKylin系统,python3.8 飞桨安装文件,版本2.6 已编译好,直接pip install paddlepaddle-0.0.0-cp38-cp38-linux_riscv64 即可。 飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,是中国首个自主研发、功能完备、 开源开放的产业级深度学习平台,集深度学习核心训练和推理框架、基础模型库、端到端开发套件和丰富的工具组件于一体。目前,飞桨累计开发者1070万,服务企业23.5万家,基于飞桨开源深度学习平台产生了86万个模型。飞桨助力开发者快速实现AI想法,快速上线AI业务。帮助越来越多的行业完成AI赋能,实现产业智能化升级。

2024-03-12

MenuetOS 汇编语言编写的操作系统磁盘映像64位1.50版本

MenuetOS 是一个正在开发的 PC 操作系统,完全用 64 位汇编语言编写。功能包括具有多处理器支持和图形用户界面的抢占式实时多任务处理。Menuet64 在 GPL 下发布,Menuet32 在 GPL 下发布。Menuet 支持装配编程,以实现更快、更小、资源更少、资源消耗更少的应用程序。 MenuetOS 内核是用汇编语言编写的,与用其他语言编写的系统相比,它具有速度优势。例如,在主 x86-64 cpu 中计算具有透明度的 GUI,避免了与显卡的兼容性问题。 整个系统可以装在一个1.44M的软盘中,太不可思议了! 安装参考:https://blog.csdn.net/skywalk8163/article/details/136633986 本版本VituralBox 虚拟主机里menuetos的网络可以调通。

2024-03-12

MenuetOS 汇编语言编写的操作系统磁盘映像

MenuetOS 是一个正在开发的 PC 操作系统,完全用 64 位汇编语言编写。功能包括具有多处理器支持和图形用户界面的抢占式实时多任务处理。Menuet64 在 GPL 下发布,Menuet32 在 GPL 下发布。Menuet 支持装配编程,以实现更快、更小、资源更少、资源消耗更少的应用程序。 MenuetOS 内核是用汇编语言编写的,与用其他语言编写的系统相比,它具有速度优势。例如,在主 x86-64 cpu 中计算具有透明度的 GUI,避免了与显卡的兼容性问题。 整个系统可以装在一个1.44M的软盘中,太不可思议了! 安装参考:https://blog.csdn.net/skywalk8163/article/details/136633986

2024-03-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除