- 博客(142)
- 资源 (1)
- 收藏
- 关注
原创 使用 OpenAI Moderation 实现内容审核
本篇内容我们学习了如何利用 OpenAI 的 Moderation 功能进行内容审核。
2025-06-05 17:05:39
843
1
原创 大模型微调(5):PEFT 微调 Qwen 大模型
本篇文章,我们介绍了微调的核心概念,并基于 LoRA 技术与 peft 框架,对 Qwen 模型进行了微调,使其在中医领域的问答任务上取得了很好的效果。
2025-06-05 16:57:48
1030
1
原创 大模型微调(4):使用 AutoClass 管理 Tokenizer 和 Model
AutoClass 是 HuggingFace 提供的一组高级 API 对象,为用户提供了一种便捷的方式来加载各种预训练模型、分词器等核心组件。
2025-05-26 19:39:13
832
1
原创 大模型微调(3):Hugging Face Transformers 快速入门
Hugging Face Transformers 库已经成了大模型开发的事实标准,掌握核心 API 对于学习大模型微调会起到事半功倍的作用。
2025-05-26 19:21:45
679
1
原创 多模态(3):实战 GPT-4o 视频理解
大模型在多模态方面能力的持续提升,将为 AI 应用的开发带来革命性的变化,一方面可以大幅提升用户体验;另一方面也可以加速促进 AI 应用在各行各业的广泛应用,并不断催生出更多创新的解决方案。
2025-04-25 11:05:41
1329
3
原创 多模态(2):DeepSeek-Janus 统一多模态模型
多模态是目前大模型领域非常热门的一个方向,并且还在快速发展中,经常会有新的技术突破出现。
2025-04-25 10:59:16
951
1
原创 多模态(1)—— OpenAI 多模态入门
本篇文章中,我们介绍了当下在大模型领域非常火爆的多模态功能,并以 OpenAI 的相关模型为例,具体讲解了如何实现文生图、图片理解和文本转语音等功能。
2025-03-17 16:03:37
842
1
原创 大模型微调实战(2):调用本地模型
在本篇文章中,我们继续以 `uer/gpt2-chinese-cluecorpussmall` 这个模型为例,演示了如何从 Hugging Face上将模型下载到本地,并且在本地进行调用。这才是目前大模型应用中更常用的开发范式,希望大家都能够了解。
2025-03-17 15:53:18
1080
1
原创 DeepSeek + ReAct 实现 Agent
借助DeepSeek强大的推理能力,再结合ReAct框架的驱动,我们可以非常方便地实现一个初级的AI Agent
2025-03-07 15:15:41
2164
1
原创 大模型微调实战(1):Hugging Face 入门
本次的文章中,我们对 Hugging Face 这个重量级的开源社区进行了介绍,概览了它的 Models 和 Datasets 这两个核心模块,并且通过一个简单的 demo 演示了如果调用 Hugging Face 上的在线模型,加深大家对于 Hugging Face 的了解。
2025-03-07 15:04:58
871
1
原创 快速入门 Prompt Engineering 提示工程
本文中,我们首先介绍了 Prompt 提示词的相关概念,接着分享了一些如何写好 Prompt 的技巧,最后介绍了几种常见的 Prompt Engineering 技术手段,可以帮助大家快速入门提示工程。
2025-03-03 14:37:43
1071
1
原创 构建自己的 Word2Vec 模型
本篇文章我们首先讲解了 Word Embedding 的基础概念,之后介绍了 Word2Vec 模型的作用及模型架构,最后的重头戏是从零到一训练一个 Word2Vec 模型,并利用它进行简单的相似性搜索,可以看到效果还是不错的。
2025-02-28 16:41:07
993
1
原创 为你的LLM应用增加记忆能力
本篇文章首先介绍了记忆系统对于 LLM 应用的重要性,接下来介绍了业界主流的记忆系统实现方案,之后我们利用 LangChain 框架为 LLM 应用添加上记忆功能,最后简单演示了下整体效果。
2024-08-30 14:54:58
2057
3
原创 使用智谱AI大模型翻译视频字幕
不久前,国内的头部大模型厂商智谱 AI ,刚刚推出了 `glm-4-0520` 模型,该模型被认为是当前平台最先进的模型,具备 128k 的上下文长度,并且相较于前一代模型,指令遵从能力大幅提升 18.6%。可以看出,智谱AI对于该模型寄予厚望。
2024-08-29 15:06:53
1772
1
原创 5. 缓存模块
对于缓存功能,相信大家都十分熟悉了。一旦我们发现系统的性能存在瓶颈需要优化时,可能第一时间想到的方式就是加缓存。缓存本质上是一种空间换时间的技术,它将计算结果保存在距离用户更近、或访问效率更高的存储介质中,进而降低请求处理耗时,提升系统性能。
2023-07-18 15:21:53
576
2
原创 4. 数据源模块
在日常开发中,我们经常会接触到池化技术,这是一种非常经典的设计思想。简单来说,池化技术指的是:将一些创建过程较为繁琐的重量级对象,统一维护在一个对象池中进行管理,每次使用对象时都从池中获取,使用完成后再归还给对象池进行回收。
2023-07-11 20:04:04
566
2
原创 3. 日志模块(下)
在日志模块的上篇中,我们详细拆解了 MyBatis 是如何整合第三方日志框架,实现了完善的日志功能的。那么在本节中,我们再来具体分析下:为了实现“将日志功能优雅地嵌入到核心流程中,实现无侵入式地日志打印”这一目标,MyBatis 内部做了怎样的设计。
2023-07-07 13:58:08
506
2
原创 2. 日志模块(上)
无论对于业务系统还是中间件来说,日志都是必不可少的基础功能。完善、清晰地日志可以帮助我们观测系统运行的状态,并且快速定位问题。现在让我们站在 MyBatis 框架开发者的角度,来分析一下日志功能的实现。
2023-07-05 19:57:04
553
2
原创 1. MyBatis 整体架构
作为正式内容的第一篇,本次不会介绍具体的技术,而是先从全局视角上对 MyBatis 做一个俯瞰,了解 MyBatis 项目工程的组织结构,以及内部的核心功能模块。
2023-07-01 08:51:38
1031
2
原创 0. 开篇词 —— 风物长宜放眼量
本专栏开篇于2023年年中,正值后疫情时代经济复苏不及预期、行业增速继续放缓、裁员失业率居高不下的宏观环境下,不确定性与焦虑感在整个社会中蔓延。但是我想说的是,越是在不确定的时代,越是要转而追求自身的确定性,摒弃对于时代红利 β 的依赖,专注于提升个人的 α。经济的兴衰、行业的变革背后都有其周期性的规律,拉长时间维度来看,我们当前所经历的一切也许并没有那么特殊。让我们一起把心态放平、视野放宽,在周期下行时持续蓄能,等待上行的机会再一飞冲天!最后附上我很喜欢的一句话共勉:风物长宜放眼量。
2023-07-01 08:43:57
479
2
原创 开篇——初识云原生
为了解决传统云计算领域的问题,容器化技术逐渐大放异彩,并推动云原生的快速发展。简单来说,云原生指的是在包括公有云、私有云、混合云等动态环境中构建和运行规模化应用的能力。这也是目前很多互联网大厂所采用的方式,即同时选择几家公有云,并且在企业内部也搭建私有云,将不同的业务部署在不同的云环境上,以达到冗余和容灾的目的。利用云原生的弹性调度能力,应用可以实现资源的动态扩缩容和环境的快速切换。基于云原生的容器化、弹性调度、服务治理等等技术手段,可以实现服务的大规模快速部署,解决了传统云计算的问题。
2022-09-05 09:34:24
444
原创 Web 应用防火墙
Web 应用防火墙(Web Application Firewall, WAF)通过对 HTTP(S) 请求进行检测,识别并阻断 SQL 注入、跨站脚本攻击、跨站请求伪造等攻击,保护 Web 服务安全稳定。
2022-06-15 17:56:35
1374
原创 熔断机制——断路器状态机
断路器状态流转过程:断路器初始状态为 CLOSED,此时服务可用正常调用;当调用失败的次数达到阈值时,熔断状态从 CLOSED 切换到 OPEN 状态。一般在实现时,如果调用成功一次,就会重置调用失败次数;当断路器处于 OPEN 状态时,我们会启动一个超时计时器,当计时器超时后,状态切换到 HALF_OPEN 半打开状态。你也可以通过设置一个定时器,定期地探测服务是否恢复;在断路器处于 HALF_OPEN 状态时,请求可以达到后端服务,如果累计一定的成功次数后,状态切换到 CLOSED;如果仍然出
2021-10-26 22:00:38
575
原创 垃圾收集器总结
垃圾收集器总结常用垃圾收集器对比垃圾收集器串行/并行/并发新生代/老年代算法目标适用场景Serial串行新生代复制低延迟优先单 CPU 环境下的 Client 模式Serial Old串行老年代标记-整理低延迟优先单 CPU 环境下的 Client 模式、CMS 的后备预案Parllel Scavenge并行新生代复制吞吐量优先在后台运算而不需要太多交互的业务Parallel Old并行老年代标记-整理吞吐量优先在后台
2021-07-21 10:24:15
204
原创 根据 DAU 估算 QPS 的一般思路
根据 DAU 估算流量和容量的一般思路以 DAU = 1000w 为例:PV按照日访问量为日活的10倍计算,PV = 1000w * 10 = 1亿均值QPS均值 QPS = 访问量/时长 = 1亿/(246060) = 1160峰值 QPS峰值 QPS 按照均值的10倍预估 = 11600。考虑到静态资源流量的放大效应,按照放大10倍计算,系统峰值 QPS = 116000容量考虑高可用、异地多活等策略,容量x2,QPS = 232000未来发展按照未来半年业务增长1.5倍计算,最
2021-07-20 10:59:22
5084
2
原创 Kafka和RocketMQ的消息复制实现对比
消息队列复制基本单位复制方式可用性一致性RocketMQ(原生)Broker同时支持同步双写和异步复制不支持主从自动切换,无法保证可用性可以保证消息一致性KafkaPartition异步复制基于Zookeeper实现主从自动切换,保证高可用可通过配置 ISR 保证一致性并不存在一种完美的消息复制策略,都是在高性能、高可用和一致性之间做出权衡。...
2020-11-17 11:05:11
481
原创 缓存读写模式
缓存读写模式一. Cache Aside (旁路缓存)读操作客户端优先读取 Cache,如果 Cache miss,则 读取 DB,并且将读取到的数据回落到 Cache 中。写操作由客户端先更新 DB ,然后直接将 key 从 Cache 中删除,由 DB 来驱动缓存数据的更新。特点这种模式的特点是,由客户端处理所有数据访问细节,同时利用 Lazy 计算的思想,更新 DB 后,直接删除 Cache 并通过 DB 更新,确保数据以 DB 结果为准,可以大幅降低 Cache 和 DB
2020-09-04 16:23:24
512
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人