- 博客(1621)
- 资源 (21)
- 收藏
- 关注

原创 十载寒冰,难凉热血——2020CSDN年度博客之星Top10心路历程
十多年前,我刚开始学软件编程的时候,遇到问题就到处找答案,看别人的文章;再从文章中拷贝代码粘贴在自己的项目里看看是不是能解决问题。解决了最好,要是没有解决的话就继续再找。这种状态持续了很久:不停地四处找代码借以解决自己的项目需求和技术难点。在这个过程中自己的进步微乎其微,而且遇到以往类似的问题依然不清楚该怎么解决,于是只有再次去找代码,复制,粘贴……如此循环。在这样的循环下,开始有些麻木了,甚至心安理得地觉得:写代码原本就是这样的,大家也都是这样做的。直到有一天,我觉得这是在为自己开脱,其实是在心底隐蔽..
2021-02-04 22:49:46
18020
46
原创 重温经典算法——二分查找
二分查找(Binary Search)是一种基于分治策略的高效搜索算法,适用于有序数组,其核心思想是通过重复将搜索区间分成两半:首先取中间元素与目标值比较,若相等则直接返回位置;若目标值小于中间元素,则在左半区间继续搜索;若目标值大于中间元素,则在右半区间继续搜索,直至找到目标值或搜索区间为空(表明目标不存在)。该算法每次比较可将搜索范围缩小一半,时间复杂度为 O(log n),空间复杂度为 O(1),具有查找速度快、性能稳定的优点。
2025-06-10 23:39:15
128
原创 Navicat Premium Lite绿色免费版
Navicat推出免费版数据库工具Navicat Premium Lite,专为入门用户设计。该工具支持MySQL、Redis等主流数据库,提供数据查看、SQL编辑、导入导出等核心功能,并具备云协作、安全连接等特性。支持跨平台使用,界面简洁且含深色模式。相比付费版功能精简,但能满足初级需求,是数据库新手的理想选择。官网地址:https://www.navicat.com.cn/products/navicat-premium-lite
2025-06-10 22:47:38
187
原创 MyBatis注解开发的劣势与不足
MyBatis注解开发虽然简化了简单SQL操作的配置,但存在显著局限性:动态SQL支持弱,需通过代码拼接字符串;复杂映射处理能力不足,嵌套层级深时代码冗余;维护成本高,修改需重新编译;可读性差,长SQL格式混乱;扩展性受限,部分插件支持不足。官方文档也明确指出注解在灵活性和表达能力上的局限,推荐XML方式处理复杂场景。实践中应根据业务复杂度混合使用两种方式,平衡开发效率与维护成本。
2025-06-10 22:47:02
566
原创 SpringBoot3整合MySQL8的注意事项
本文介绍了MySQL数据库连接的配置要点,作者谷哥的小弟提供了操作指南:需添加mysql-connector-java依赖(版本8.0.11),指定驱动名为com.mysql.cj.jdbc.Driver,并在数据库URL中配置字符编码(UTF-8)和时区(UTC)。完整博客内容可访问作者CSDN博客查看。
2025-06-05 19:46:10
423
原创 重温经典算法——希尔排序
本文介绍了希尔排序的原理与Java实现。希尔排序作为插入排序的改进版,通过分组增量逐步缩小实现高效排序,平均时间复杂度O(n log n)到O(n^(3/2)),空间复杂度O(1)。
2025-06-04 22:29:12
163
原创 重温经典算法——堆排序
堆排序是一种基于二叉堆的高效排序算法,时间复杂度为O(n log n)。其核心步骤包括构建最大堆和反复取出堆顶元素排序:首先从最后一个非叶子节点开始调整构建最大堆,然后将堆顶元素与末尾元素交换,并重新调整剩余元素为新堆。
2025-06-02 19:30:00
251
原创 重温经典算法——快速排序
本文介绍了快速排序算法的原理与Java实现。快速排序采用分治策略,通过选取基准元素将数组分为两个子数组并递归排序,平均时间复杂度为O(n log n),最差情况下为O(n²)。代码示例演示了分区过程和递归排序的实现,包含基准选择、元素交换等关键步骤。测试用例验证了对数组{10,7,8,9,1,5}的正确排序结果。文章版权归原作者谷哥的小弟所有,博客地址见原文。
2025-06-02 14:45:00
188
原创 重温经典算法——并归排序
归并排序基于分治思想,递归地将数组拆分为两个子数组,分别排序后合并。时间复杂度为 O(n log n),空间复杂度 O(n)(需额外存储合并后的数组),是稳定排序,适用于大数据量且对稳定性有要求的场景(如外部排序)。
2025-06-02 10:30:00
149
原创 重温经典算法——插入排序
本文介绍了插入排序的基本原理及Java实现。插入排序通过将数组分为已排序和未排序两部分,依次将未排序元素插入已排序部分的正确位置。算法时间复杂度平均和最差为O(n²),最好O(n),空间复杂度O(1),属于稳定排序,适用于小规模或部分有序数据。文中提供了完整的Java代码示例,演示了对数组进行插入排序的过程。
2025-05-29 23:45:00
252
原创 重温经典算法——选择排序
选择排序属于简单的原地排序算法,通过将待排序序列分为已排序和未排序两部分,每次从未排序部分选择最小元素,与未排序部分的起始位置交换,逐步扩大已排序范围。其核心操作是“选择最小元素并固定位置”,时间复杂度始终为 O(n²)(无论数据是否有序),空间复杂度为 O(1),属于不稳定排序(如对 [5, 5, 3] 排序可能破坏相同元素的原始顺序),适用于小规模数据或内存敏感的场景。
2025-05-29 22:30:00
279
原创 重温经典算法——冒泡排序
冒泡排序是一种基于交换的简单排序算法,通过重复遍历待排序序列,依次比较相邻元素的值,若顺序错误则交换它们,直到整个序列有序。冒泡算法核心思想是将较大的元素逐渐“浮”到序列末尾。时间复杂度为平均和最差情况 O(n²),最好情况(已有序时)为 O(n),空间复杂度为 O(1),属于原地排序且稳定,但由于效率较低,通常仅用于教学或小规模数据场景。
2025-05-29 17:40:21
244
原创 Invalid value type for attribute ‘factoryBeanObjectType‘: java.lang.String
使用MyBatis-Plus报错:Invalid value type for attribute ‘factoryBeanObjectType‘: java.lang.String
2025-05-26 09:54:16
205
原创 前端HTMX技术详解
HTMX 作为一种新兴的前端开发工具,凭借其轻量级、无依赖、易扩展的特性,在前端开发领域展现出了独特的优势和广阔的应用前景。它通过在 HTML 中引入自定义属性,实现了 AJAX 请求、CSS 动画、WebSockets 等现代交互功能,极大地简化了前端开发流程,降低了开发门槛,尤其适合后端开发人员和对性能要求较高的简单交互性项目。
2025-05-10 11:07:35
1201
原创 Server-Sent Events(SSE)技术详解
Server-Sent Events(SSE)是HTML5标准中的一项技术,通过单向HTTP长连接实现服务器向客户端的实时数据推送,适用于股票行情、新闻订阅等场景。SSE的核心优势包括:1)简单易用,基于文本格式和EventSource API,开发者可快速实现数据接收;2)高效连接维护,通过长连接减少轮询开销,降低服务器资源消耗;3)强大的数据传输能力,支持JSON等结构化数据的高效解析;4)自动重连和状态恢复机制,确保数据传输的连续性与完整性;5)良好的兼容性,可在大多数现代浏览器中使用,并通过Poly
2025-05-10 11:06:00
928
原创 SpringBoot框架名字的由来
在计算机启动时,BIOS/UEFI会执行一段称为“Bootloader(引导程序)”的代码。它的任务极其简单却至关重要:用最基础的指令,逐步加载更复杂的系统组件,最终启动完整的操作系统。这一过程被称为“Booting(引导)”,其本质是通过最小化的初始操作,触发系统的自我构建能力。
2025-05-10 10:42:20
1345
原创 文心一言开发指南13——文心一言API两种调用方式的区别
至于到底选择使用SDK调用还是HTTP调用ERNIE-4.0-8K取决于项目的具体需求、开发团队的熟悉程度、系统的整体架构以及性能和安全等方面的考虑。在需要快速集成、深度整合、性能优化和一致开发体验的场景下,使用SDK调用可能更为合适;而在需要轻量级、灵活性、跨语言支持、自定义交互过程或避免依赖与兼容性问题的场景下,使用HTTP调用可能更为合适。需要注意的时,都需要确保遵循API的使用规范和安全性要求,以确保应用的稳定性和安全性。
2025-05-05 16:01:33
931
原创 文心一言开发指南10——千帆大模型平台计费
如果选择按量后付费,系统会根据实际的输入及输出总和tokens数量,每小时对您的百度智能云账户进行扣费。对于个人开发者而言,通常选择按照量后付费或Tokens量包预付费;本教程使用ERNIE-4.0-8K模型,故开通其付费;
2025-05-05 00:30:00
274
原创 文心一言开发指南09——千帆大模型平台获取AccessToken
在日后的API调用中会频繁使用AccessToken,所以我们先了解如何获取AccessToken。刚好,也借此机会熟悉千帆大模型平台推理API最基本的使用。至于如何获取AccessToken,请详细阅读官方文档;图示如下:
2025-05-05 00:15:00
646
原创 文心一言开发指南08——千帆大模型平台推理服务API
百度智能云千帆平台提供了全面的推理服务API,涵盖了多种功能。具体而言,它支持对话Chat API,可用于发起一次对话;续写Completions API,允许用户发起一次续写请求,但需注意它不支持多轮会话;向量Embeddings API,能够根据输入内容生成对应的向量表示;重排序Reranker API,用于重新排序向量模型返回的top-k文档,从而优化语义搜索结果;此外,平台还支持HuggingFace Transformer架构的自定义大模型导入,用户可以将自定义模型发布为服务,并通过相关API进行
2025-04-29 20:29:31
1048
1
原创 文心一言开发指南07——千帆大模型平台创建应用
在您使用百度智能云千帆大模型平台前,需要您提前注册一个百度智能云的官网主账号;官方链接:https://login.bce.baidu.com/new-reg在完成注册后请登录,登录后将跳转至智能云控制台;图示如下:
2025-04-28 01:15:00
337
原创 文心一言开发指南06——千帆大模型平台新手指南
千帆大模型平台为新手用户提供了一个全面的入门指南,以便用户能够快速熟悉平台的操作和功能。千帆大模型平台通过提供详细的新手指南,确保用户能够顺利开始他们的AI大模型训练和部署之旅。平台提供了详细的操作手册和视频教程,帮助用户逐步熟悉每一个操作步骤。另外,平台提供了丰富的API接口和SDK支持,用户可以通过编程快速接入和使用平台服务。
2025-04-28 00:15:00
386
原创 文心一言开发指南05——千帆大模型平台费用说明
千帆大模型平台提供了一系列基础服务,包括数据集管理、模型训练、服务发布与监管等,这些服务是平台运行的核心。对于这些基础服务,平台会根据用户的具体使用情况来收费。收费模式多样,包括按量计费和订阅服务。按量计费通常针对资源密集型服务,如模型训练和批量预测,根据用户实际使用的计算资源、存储资源或调用次数等计费。而订阅服务则适用于长期使用的功能,用户可选择按月、按季度或按年订阅,享受固定的服务内容和价格。平台确保计费的透明度,明确展示各项服务的收费标准、计费详情和使用量统计。
2025-04-21 00:30:00
1496
原创 文心一言开发指南04——千帆大模型平台常用概念
在利用千帆大模型平台进行AI开发之前,有必要了解千帆大模型平台的常用概念。在单轮对话中,通常只涉及一个核心问题,对话的双方只需要针对这个问题进行回答和交流,不需要对之前的回答进行进一步的追问或解释。这种对话形式通常适用于一些简单的交流场景,如咨询信息、请求服务等。在多轮对话中,对话的双方需要在一系列问题中进行多次交流和回答,每次回答都可能引出下一个问题。这种对话形式通常适用于一些复杂的交流场景,如咨询专家意见、解决问题等。
2025-04-21 00:15:00
364
原创 文心一言开发指南03——千帆大模型平台产品优势
千帆大模型平台作为百度智能云推出的企业级大模型一站式平台,具有显著的产品优势。千帆大模型平台以其基础强大、流程完善、运行稳定和安全可靠的产品优势成为企业构建AI应用的首选平台。通过该平台企业可以快速构建高效的大模型应用提高业务流程的自动化水平和效率降低成本并创新应用场景打造差异化的竞争力和品牌优势。
2025-04-14 19:27:09
814
原创 文心一言开发指南02——千帆大模型平台介绍
百度智能云千帆大模型平台(简称千帆或千帆大模型平台)是面向企业开发者的一站式大模型开发及服务运行平台。千帆不仅提供了包括文心一言底层模型和第三方开源大模型,还提供了各种AI开发工具和整套开发环境,方便客户轻松使用和开发大模型应用。千帆大模型平台支持数据管理、自动化模型SFT以及推理服务云端部署的一站式大模型定制服务,助力各行业的生成式AI应用需求落地。
2025-04-14 01:45:00
371
原创 文心一言开发指南01——官方文档综述
文心一言是百度智能云推出的一款大模型产品,而千帆大模型平台是百度智能云为开发者和企业提供的一个平台,用于构建、训练和部署各种大模型,包括但不限于文心一言。千帆大模型平台提供了一个更广泛的环境,支持用户利用百度的技术和资源来开发和部署自己的大模型,而文心一言则是这个平台上的一个成熟的大模型实例,用户可以直接使用或作为参考来构建自己的模型。它可以根据用户的输入生成各种类型的文本,如诗歌、故事、对话等,并广泛应用于文学创作、商业文案创作、数理逻辑推送、中文理解、多模态生成等多个领域。
2025-04-14 01:30:00
522
原创 大模型上下文协议MCP详解(4)—应用场景
在医疗领域,病历系统是患者医疗信息的核心存储库,其数据的准确性和完整性对于诊断和治疗至关重要。通过 MCP 协议,AI 医生能够与病历系统无缝连接,快速获取患者的病史信息。例如,当 AI 医生接收到一个患者的诊断请求时,它可以通过 MCP 协议调用病历系统,获取患者的既往病史、过敏史、手术记录等关键信息。这种连接方式不仅提高了数据获取的效率,还确保了数据的准确性和实时性。据统计,使用 MCP 协议连接病历系统后,AI 医生获取病历信息的时间减少了约 50%,同时数据错误率降低了 20%。此外,MCP 协议还
2025-04-14 00:45:00
1174
原创 大模型上下文协议MCP详解(3)—主要优势
MCP 协议的出现,正是为了应对 AI 领域中日益增长的集成需求。随着 AI 技术的快速发展,AI 模型需要与各种外部资源进行交互,以获取数据、调用工具或执行任务。然而,传统的集成方式通常需要为每个模型和数据源单独开发接口,这不仅增加了开发成本,还可能导致安全漏洞和维护问题。MCP 协议通过标准化的客户端-服务器架构,将 AI 模型与外部资源的交互过程简化为一个统一的接口,使得开发者可以更高效地构建和部署 AI 应用。
2025-04-14 00:15:00
997
原创 大模型上下文协议MCP详解(2)—核心功能
MCP(Model Context Protocol)通过标准化的接口,为 AI 模型提供了强大的实时数据接入能力,使其能够快速获取和处理来自不同数据源的实时信息。例如,在金融领域,MCP 可以使 AI 模型实时查询股票价格、交易量等数据,为投资决策提供即时支持。根据相关研究,使用 MCP 接入实时数据后,金融 AI 模型的决策效率提升了约 30%,准确率提高了 15%。在气象领域,MCP 支持 AI 模型实时获取天气数据,为气象预测和灾害预警提供更准确的依据,数据更新频率可达到每分钟一次,显著提高了预测的
2025-04-11 23:15:00
835
原创 大模型上下文协议MCP详解(1)—技术架构与核心机制
MCP(Model Context Protocol,模型上下文协议)是由Anthropic公司于2024年11月推出的开放标准协议。它旨在解决AI大模型与外部工具、数据源及API之间的标准化交互问题,为AI智能体提供类似“万能插头”的统一接口,简化复杂集成流程,推动AI生态的互操作性和可扩展性。具体而言,其目标是打破AI系统与数据之间的孤岛状态,让模型能够更高效、更安全地获取上下文信息,从而生成更准确、更相关的回答。
2025-04-11 17:55:14
1374
原创 大模型知识蒸馏核心技术(5)—— 多教师蒸馏
多教师蒸馏的核心在于利用多个教师模型的集成知识来指导学生模型的学习。这些教师模型可以具有不同的架构、训练数据或任务目标,从而提供多样化的知识。例如,不同的教师模型可能在某些特定任务上表现出色,而多教师蒸馏能够将这些优势整合起来,使学生模型能够学习到更全面的特征表示和决策逻辑。通过这种方式,学生模型不仅能够继承教师模型的优势,还能避免单一教师模型可能存在的局限性和偏见。
2025-03-16 15:14:04
1473
原创 大模型知识蒸馏核心技术(4)—— 关系型知识蒸馏
大模型知识蒸馏的核心技术旨在将教师模型的知识高效迁移至学生模型。其中,样本间关系建模(RKD,Relational Knowledge Distillation)是一种重要的方法,它通过迁移样本间的距离或角度关系,增强学生模型的泛化能力。
2025-03-10 00:45:00
393
原创 大模型知识蒸馏核心技术(3)—— 中间层知识迁移
特征匹配是中间层知识迁移的一种重要方式,通过对齐师生模型的中间层特征来实现知识的传递。具体来说,教师模型和学生模型的中间层特征图或激活值被提取出来,然后通过某种损失函数来衡量它们之间的差异,并进行优化。常用的损失函数包括L2损失和余弦相似度等。
2025-03-10 00:30:00
1955
原创 大模型知识蒸馏核心技术(2)—— 损失函数设计
教师模型的复杂度与性能、软标签输出以及知识丰富性为其提供了高质量的知识来源,而学生模型的结构与复杂度、学习能力、泛化能力以及训练效率则决定了知识迁移的效率和最终性能。例如,大型Transformer模型作为教师模型能够学习到丰富的语言特征,而轻量级的MobileNet作为学生模型则更适合在移动设备上部署。蒸馏方法的分类进一步丰富了知识迁移的实现方式。输出层蒸馏简单高效,适合分类任务;中间层蒸馏能够实现更深层次的知识迁移,提升学生模型在复杂任务中的性能;注意力机制蒸馏则让学生模型能够学习到教师模型对输入数据的
2025-03-10 00:15:00
1051
原创 大模型知识蒸馏核心技术(1)——知识表示与迁移
知识蒸馏能够有效压缩模型大小、降低计算复杂度,提升推理速度。例如,在计算机视觉领域,通过知识蒸馏将大型卷积神经网络(如ResNet50)的知识迁移到小型网络(如MobileNet),可以在保持较高准确率的同时,显著减少模型参数和计算量,满足在移动设备或嵌入式系统上的部署需求。在自然语言处理领域,对BERT模型进行知识蒸馏得到的轻量级模型,如TinyBERT,在保持较高准确率的同时,推理速度大幅提升,能够高效完成多种语言任务。
2025-03-03 12:36:13
2059
原创 大模型知识蒸馏技术(10)——伦理约束与性能平衡难题
在性能平衡方面,知识蒸馏虽然显著降低了计算成本,提升了模型的部署效率,但学生模型在复杂推理能力和领域覆盖广度上可能有所牺牲。尽管多教师蒸馏、架构设计优化和数据增强等技术手段能够在一定程度上缓解这一矛盾,但在实际应用中,仍需在效率与能力、能耗控制与性能提升之间找到最佳平衡点。未来的发展方向中,合规性蒸馏、联邦知识蒸馏以及模型水印、数据溯源等技术手段的探索与应用,将为知识蒸馏技术的健康发展提供新的思路和解决方案。合规性蒸馏能够确保 AI 模型在遵守法律法规的前提下高效运行,联邦知识蒸馏则在隐私保护的基础上促进了
2025-03-03 01:15:00
1937
原创 大模型知识蒸馏技术(9)——主流深度学习库的蒸馏实现方案
Transformers 库通过集成多模态模型(如 CLIP、Vision Transformer 等),支持多模态任务的蒸馏。例如,在视觉问答任务中,教师模型可以是一个复杂的多模态模型,学生模型则是一个轻量级的多模态模型。通过 Distiller 类,教师模型的知识可以有效地迁移到学生模型中,使得学生模型在保持较高性能的同时,显著降低了计算复杂度。
2025-03-03 00:15:00
1719
DependencyInjection
2023-09-05
仿QQ获取设备中APK并分享
2016-04-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人