自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

张小白

张小白,字大白,优质回复家。斜杠青年,精力充沛。简称钢筋。

  • 博客(72)
  • 收藏
  • 关注

原创 Coding Plan选择困难症?

本文分析了主流LLM厂商推出的CodingPlan订阅服务,比较了智谱、火山、Kimi等8家厂商的资费方案、用量限制和服务特点。文章指出当前行业缺乏统一的计费标准,不同厂商对prompt调用次数的定义存在差异。作者建议用户根据实际需求选择100-200元档位的Pro套餐,并提醒注意额度使用规则(5小时/7天/月度三重限制)。最后分享了邀请码优惠信息,并以自身购买经历说明套餐选择需考虑性价比和涨价趋势。建议开发者根据编程需求合理搭配多个平台的套餐使用。

2026-03-07 09:45:28 1626

原创 跟Trae合作完成项目的docker部署

所以把一个Vibe Coding工程实现docker部署,需要解决的问题还是不少的。张小白应该把上述规则整理起来,做成代码规范SPEC,让张小白的下一个工程不再犯错。然而,可能更重要的是:在docker环境中,还是要重新做好功能测试的。那下面我们把目前调试好的docker部署给大家看看效果。

2026-03-03 12:35:24 1124

原创 让Trae开发“完整”的项目

EasyVibe初级组队学习课程即将收官,学员张小白完成了"随身营养师"项目实战。该项目基于AI IDE工具Trae开发,重点构建了营养档案设置和每日营养建议功能模块。项目亮点包括:1)利用GLMCodingPlan的MCP服务处理专业营养术语图片;2)通过AI辅助完成营养数据的精确录入;3)实现了用户管理、知识库管理、营养档案设置等核心功能。系统可计算用户每日各类营养素需求,并提供专业数据查询。目前项目已具备基础功能,未来计划增强AI对话交互能力。

2026-03-03 12:19:21 681

原创 使用Trae让应用系统具备AI能力

这里首先要区分清楚的是:(1)使用带AI能力的AI IDE工具编程,你可以编出一套传统应用。(2)使用带AI能力的AI IDE工具编程,你还可以编出一套带AI能力的应用。

2026-02-21 23:36:52 979

原创 使用Trae搭建原型实战

摘要:本文记录了张小白从2D到3D企业投资关系图的技术升级过程。通过VSCode+Cline和Trae等工具,作者首先实现了基础功能,随后采用VibeCoding(氛围编程)这一新型编程范式进行3D交互界面的开发。文章重点探讨了VibeCoding对传统软件开发流程的变革,包括从语法驱动到意图驱动的转变、开发者角色重构等优势,同时也分析了其面临的代码质量风险、工具链不足等挑战。实战部分详细展示了3D页面交互设计过程,包括解决各类技术问题、增加多层次交互功能,最终实现了比2D更具视觉效果的3D企业投资关系展示

2026-02-21 23:25:32 1437

原创 Trae AI编程实践

本文记录了使用字节跳动开发的AI编程工具Trae进行企业投资图谱应用开发的完整过程。作者从安装配置Trae开始,通过SOLO模式实现需求分析、技术栈选择、前后端代码生成及调试。开发过程中发现AI存在"幻觉"问题,如虚构不存在的企业名称并坚持错误结论。文章展示了AI编程的高效性,同时也指出其精度不足的缺陷,建议在关键场景结合传统开发方式,并强调测试验证的重要性。整个过程体现了AI辅助开发的潜力与局限性。

2026-02-21 23:04:37 918

原创 olmocr:另一个PDF识别器

关于OCR识别的大模型,张小白做了2次探索:张小白:PP-DocBee 表格识别能力初探(使用百度AI Studio)0 赞同 · 0 评论文章和张小白:另一个表格识别大模型GOT-OCR2.04 赞同 · 0 评论文章这次得知olmOCR也可以做这个:代码仓:那就试一试吧!

2025-02-28 05:18:05 1733

原创 OpenSora初体验

openSora初体验

2024-03-24 09:11:34 3345 4

原创 让香橙派AI Pro用上SSD

与现在主流的M2 Nvme SSD硬盘不同,当时用的还是SATA硬盘。还有一种方法,就是按照手册的方法将Linux镜像烧录到SATA SSD里面去,然后设置好拨码开关后,使用SSD启动香橙派系统。下面张小白有2个选择,一个是像使用rock5A和小藤那样,把SSD硬盘作为一个数据盘使用。俗话说,人尽其才、机尽其用。跟现在动辄几千MB/秒的速度相比,读500写270的速度已经是小巫见大巫了。这样,就可以把SSD硬盘当作数据盘使用了。于是这台机器很自然的就能跑很多大模型了。果然119.24G的SSD硬盘出现了。

2024-02-19 04:42:22 2186 1

原创 一个差点返修的香橙派AIPro

当然,后来发现,这张TF卡上有很多分区。张小白就感觉到有点不大妙,然后就听说群里纷纷在聊AI Pro会自动休眠的问题。那对于穷逼张小白,他还需要买散热风扇嘛?于是,张小白再次开机之后,过了一阵子,香橙派貌似也休眠了。那它是怎么被拨过去的?(可能是它自己想过去的。机智的小伙伴突然发现:你的拨码开关为啥不是两个右?然后再插入TF卡槽,开启电源,现象依然如此。细心的群友们让我拍下这个貌似去世的开发板。不然张小白真的申请返修了。输入HwHiAiUser和Mind@123。张小白在群里嘟囔着:要返修了,要返修了。

2024-02-19 04:38:40 1908 1

原创 香橙派AI Pro初体验

使用npu-smi info可以查看昇腾芯片NPU卡的信息,上图显示,Device为310B4,芯片温度为55度,总内存为15.6G,已使用1.67G左右。现在推出的产品仅支持8TOPS算力,有8G和16G的两种版本,鉴于张小白在使用Atlas 200DK和Atlas 200I DK A2上的经验和教训,决定购买16G的版本。内存16G,还剩13G左右,swap空间为0,存储59G,还剩43G左右。先准备好SD卡,官方由于延迟发货,赠送了一张64G的TF卡,将其插入TF卡转接头,然后接入电脑,开始制卡。

2024-02-19 04:34:38 1931

原创 在Jetson AGX Orin上体验ChatSQL

在Jetson AGX Orin上体验ChatSQL

2023-10-31 07:28:15 448

原创 大模型部署手记(22)Ubuntu+TensorRT-LLM+通义千问

Ubuntu+TensorRT-LLM+通义千问

2023-10-31 07:22:54 2049

原创 大模型部署手记(21)Windows+ChatGLM3

Windows+ChatGLM3

2023-10-31 07:20:47 961

原创 大模型部署手记(20)Windows+Qwen-VL-Chat-Int4

Windows+Qwen-VL-Chat-Int4

2023-10-31 07:15:44 3344

原创 大模型部署手记(19)Ubuntu+JupyterLab+Nemo+Llama2+llama-index+语音对话机器人

Ubuntu+JupyterLab+Nemo+Llama2+llama-index+语音对话机器人

2023-10-31 07:09:50 421

原创 大模型部署手记(18)Windows+JupyterLab+Nemo+Llama2+llama-index+语音对话机器人

Windows+JupyterLab+Nemo+Llama2+llama-index+语音对话机器人

2023-10-31 07:04:32 735

原创 大模型部署手记(17)7个大模型+Windows+LongChain-ChatChat

硬件环境:暗影精灵7PlusWindows版本:Windows 11家庭中文版 Insider Preview 22H2内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)

2023-10-17 14:02:28 5419 2

原创 大模型部署手记(16)ChatGLM2+Ubuntu+LongChain-ChatChat

组织机构:智谱/清华模型:THUDM/chatglm2-6b Embedding 模型moka-ai/m3e-base硬件环境:暗影精灵7PlusUbuntu版本:18.04内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)

2023-10-17 13:59:38 1815 2

原创 大模型部署手记(15)LLaMa2+Ubuntu18.04+privateGPT

组织机构:Meta(Facebook)模型:llama-2-7b下载:使用download.sh下载或Huggingface.co或aliendao.cn下载硬件环境:暗影精灵7PlusUbuntu版本:18.04内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)

2023-10-17 13:57:23 1551

原创 大模型部署手记(14)Chinese-LLaMA-Alpaca-2+Ubuntu+vLLM

组织机构:Meta(Facebook)模型:chinese-alpaca-2-7b-hf下载:使用百度网盘下载硬件环境:暗影精灵7PlusUbuntu版本:18.04内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)

2023-10-17 13:55:14 1494

原创 大模型部署手记(13)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+LangChain+摘要问答

这里需要重装一下GPU版的torch再来:貌似字符集有什么问题。参考Python读取文件时出现UnicodeDecodeError: ‘gbk‘ codec can‘t decode byte 0x80 in position ...​blog.csdn.net/qq_31267769/article/details/109128882将 langchain_sum.py改为再来:缺protobuf库?再来:再来:

2023-10-10 14:20:29 7190

原创 大模型部署手记(12)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+text-gen+中文对话

组织机构:Meta(Facebook)模型:chinese-alpaca-2-7b-hf下载:使用百度网盘下载硬件环境:暗影精灵7PlusWindows版本:Windows 11家庭中文版 Insider Preview 22H2内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)从的README.md可以看出,中文LLaMA&Alpaca大模型支持不同的LLaMA生态:这里面有llama.cppLangChainprivateGPTvLLM等多种。

2023-10-10 13:27:07 1225

原创 大模型部署手记(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文对话

组织机构:Meta(Facebook)模型:LIama-2-7b-hf、Chinese-LLaMA-Plus-2-7B下载:使用huggingface.co和百度网盘下载硬件环境:暗影精灵7PlusWindows版本:Windows 11家庭中文版 Insider Preview 22H2内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)查看新的模型出来了,可以试一试。

2023-10-10 13:15:44 2020 2

原创 大模型部署手记(10)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中英文对话

组织机构:Meta(Facebook)模型:llama-2-7b、llama-2-7b-chat(下载:使用download.sh下载硬件环境:暗影精灵7PlusWindows版本:Windows 11家庭中文版 Insider Preview 22H2内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)在完成和的基础上,张小白觉得对话应该是水到渠成的事情了。

2023-10-10 13:14:46 15473

原创 大模型部署手记(9)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中文文本补齐

组织机构:Meta(Facebook)模型:llama-2-7b、Chinese-LLaMA-Plus-7B(chinese_llama_plus_lora_7b)下载:使用download.sh下载硬件环境:暗影精灵7PlusWindows版本:Windows 11家庭中文版 Insider Preview 22H2内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)在一文中,张小白完成了基于原始 llama-2-7b 模型的文本补齐。

2023-10-10 13:13:45 4193

原创 大模型部署手记(8)LLaMa2+Windows+llama.cpp+英文文本补齐

组织机构:Meta(Facebook)模型:llama-2-7b下载:使用download.sh下载硬件环境:暗影精灵7PlusWindows版本:Windows 11家庭中文版 Insider Preview 22H2内存 32GGPU显卡:Nvidia GTX 3080 Laptop (16G)

2023-10-10 13:12:30 9486 1

原创 使用Jetson AGX Orin进行口罩识别

在https://gitee.com/gpus/maskDetection_jetson代码仓有个口罩识别的案例,我们来看看能不能在Jetson AGX Orin上搞定。先将该代码仓fork到自己的代码仓(以便魔改)回到自己的代码仓:根据README.md来操作吧!首先需要下载darknet框架并安装,但是众所周知,github不是很友好。所以还是把https://github.com/AlexeyAB/darknet通过gitee来过渡:https://...

2023-10-10 13:09:53 657

原创 大模型部署手记(7)LLaMA2+Jetson AGX Orin

大模型部署手记(7)LLaMA2+Jetson AGX Orin

2023-10-05 11:52:03 3189 4

原创 大模型部署手记(6)通义千问+Jetson AGX Orin

大模型部署手记(6)通义千问+Jetson AGX Orin

2023-10-05 11:50:18 5228 6

原创 大模型部署手记(5)ChatGLM2+Jetson AGX Orin

大模型部署手记(5)ChatGLM2+Jetson AGX Orin

2023-10-05 11:48:56 1125

原创 大模型部署手记(4)MOSS+Jetson AGX Orin

大模型部署手记(4)MOSS+Jetson AGX Orin

2023-10-05 11:42:50 963

原创 大模型部署手记(3)通义千问+Windows GPU

大模型部署手记(3)通义千问+Windows GPU 暗影精灵7Plus Nvidia GTX 3080 Laptop

2023-10-05 11:40:37 4101 1

原创 大模型部署手记(2)baichuan2+Windows GPU

大模型部署手记(2)baichuan2+Windows GPU 暗影精灵7Plus Nvidia GTX 3080 Laptop

2023-10-05 11:38:15 2289 1

原创 大模型部署手记(1)ChatGLM2+Windows GPU

大模型部署手记(1)ChatGLM2+Windows GPU 暗影精灵7Plus Nvidia GTX 3080 Laptop

2023-10-05 11:35:35 449

原创 【MindSpore易点通·漫游世界】在Jetson AGX Orin上源码编译安装MindSpore 1.8.0 GPU版

下载mindspore r1.8分支源码:git clone http://gitee.com/mindspore/mindspore.git -b r1.8修改 mindspore/scripts/build/build_mindspore.sh:在Xoff那一行增加 -DENABLE_GITEE=ON 强制使用gitee因为gcc7.3.0好像被破坏了,所以重新源码编译下:cd /home/zhanghuiln -s /home1/zhanghui/gcc-7.3.0cd /home1/zhanghu

2022-07-12 15:33:15 563

原创 【MindSpore易点通·漫游世界】在Jetson AGX Orin上源码编译安装MindSpore 1.7.0 GPU版

先将 gcc和g++的软连接都指向 /usr/bin/gcc-9和 /usr/bin/g++-9然后下载mindspore 1.7的源码包:接着修改build_mindspore.sh如上图所示,箭头处增加 -DENABLE_GITEE=ON执行 ./build.sh -e gpu -j12 开始编译。。。。编译得非常顺利,让张小白有点觉得不可思议。张小白几乎忘记了现在到底是用什么Python版本编译的:原来是Python 3.9看看编译的结果:创建一个新的conda环境:查看下版本:于是开始安装:pip

2022-07-12 15:26:25 556

原创 2022CUDA夏季训练营Day5实践

前情回顾:2022CUDA夏季训练营Day1实践https://zhanghui-china.blog.csdn.net/article/details/1257114422022CUDA夏季训练营Day2实践https://zhanghui-china.blog.csdn.net/article/details/1257117672022CUDA夏季训练营Day3实践https://zhanghui-china.blog.csdn.net/article/details/1257119142022CUDA

2022-07-10 22:59:42 482

原创 2022CUDA夏季训练营Day4实践

前情回顾:2022CUDA夏季训练营Day1实践http://​https://zhanghui-china.blog.csdn.net/article/details/125711442 ​2022CUDA夏季训练营Day2实践https://zhanghui-china.blog.csdn.net/article/details/1257117672022CUDA夏季训练营Day3实践https://zhanghui-china.blog.csdn.net/article/details/1257119

2022-07-10 22:38:05 539

原创 2022CUDA夏季训练营Day3实践

前情回顾:https://blog.csdn.net/snmper/article/details/125711442今天是第三天,主题是Event,Memory和Shared Memory。我们先来看第一个——Event。Event是CUDA中的事件,用于分析、检测CUDA程序中的错误。一般我们会定义一个宏:并在适当的位置使用这个宏来打印CUDA的错误日志。注:辅导员欢老师提出,#pragma once, 不要放在源代码文件里,这个一般只放在头文件里的。(防止头文件被引入多次)具体的调用过程

2022-07-10 22:17:59 351

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除