自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(445)
  • 收藏
  • 关注

原创 3 分钟,用 DeepSeek 搞定大厂通过率 90% 的简历

昨天,跟一个朋友在一块聊天,他跟我说拿到年终奖了,准备出去看看机会,投了几份简历,一直没收到面试通知,让我帮忙看看简历是否还能再优化一下。现在 DeepSeek 这么火, 我就去尝试能不能借助 DeepSeek 来优化简历,甚至让 DeepSeek 提供求职私教服务。尝试之后,发现还不错,来给大家分享一下。不同岗位的招聘要求肯定不一样,给 DeepSeek 提供一些背景信息,它才能有针对性思考。我在招聘网站上找到了一份面试要求,发给 DeepSeek,让他先了解一下目标岗位的要求。

2025-04-09 10:41:24 660

原创 1万字深度解析AI大语言模型在医疗健康领域的应用现状、发展趋势以及面临的挑战

随着人工智能技术的飞速发展,大语言模型(Large Language Models, LLMs)正在医疗健康领域掀起一场革命。近日,来自加州大学河滨分校和斯坦福大学的研究人员发表了一篇题为《Large Language Models in Healthcare and Medical Domain: A Review》的综述论文,全面梳理了大语言模型在医疗领域的应用现状、发展趋势以及面临的挑战。本文将深入解读这篇重要综述,为读者呈现大语言模型在改变医疗实践、推动医学研究方面的巨大潜力。

2025-04-09 10:35:50 543

原创 00后用AI整顿职场,Excel被革命了!一分钟可填写500个表格,数据搜集快1000倍!网友:微软、谷歌快点跟进

Excel真的要被革命了!想象一下有成千上万的实习生帮你处理一张表格的情景!你敢想象每张电子表格里的每一行每一列,甚至每一个单元格都是一个单独的智能体吗?这种“超神”级别的表格AI,甚至微软谷歌的Doc都没有做到。但却被一家融资200万美元的小团队做到了。近日,一家名为Paradigm的AI公司,在X上推出了他们的研发新品,这是一个全新的AI驱动的电子表格,每分钟可以填写 500 个单元格,甚至可以让电子表格直接用来生图,再也不必使用Photoshop!

2025-04-08 15:24:22 708

原创 【重磅推出】吴恩达与OpenAI联手打造《LLM CookBook》中文版:大模型课程逆天来袭!

吴恩达老师与OpenAI合作推出的大模型系列教程,从开发者在大型模型时代的必备技能出发,深入浅出地介绍了这些教程非常适合开发者学习,以便开始基于LLM实际构建应用程序。Datawhale将该系列课程翻译为中文,并复现了范例代码,其中一个视频还增加了中文字幕,以支持国内中文学习者直接使用,帮助他们更好地学习LLM开发。

2025-04-08 15:20:23 135

原创 【应用实战】利用Ollama + RAGFlow部署千问大模型:构建个人知识库AI智能体

将开源的大语言预训练模型部署到用户设备上进行推理应用,特别是结合用户专业领域知识库构建AI应用,让AI在回答时更具有专业性,目前已经有很多成熟的应用方案。其中,支持大模型本地化部署的平台及工具很多,比较出名的有ollama、vLLM、LangChain、Ray Serve等,大大简化了模型的部署工作,并提供模型全生命周期管理。

2025-04-08 15:15:43 1009

原创 【新进展】知识图谱+大模型-->医疗诊断

在当今的医疗保健中,电子健康记录(EHRs)和日常文档记录对患者的护理至关重要。EHRs提供了患者的全面健康信息,包括病史、诊断和治疗。然而,由于EHR叙述内容繁多且复杂,容易导致医疗人员信息过载,进而增加诊断错误的风险。近年来,生成式大型语言模型(LLMs)在各类语言任务中的表现令人瞩目,但在医疗领域的应用面临诸多挑战,尤其是在减少诊断错误和避免对患者造成伤害方面。为了应对这些挑战,研究者们提出了一种创新方法,通过。

2025-04-08 15:10:33 801

原创 【无标题】从零开始手把手带你训练LLM保姆级教程,草履虫都能学会!

ChatGPT面世以来,各种大模型相继出现。那么大模型到底是如何训练的呢,在这篇文章中,我们将尽可能详细地梳理一个完整的 LLM 训练流程,包括模型预训练(Pretrain)、Tokenizer 训练、指令微调(Instruction Tuning)等环节。

2025-04-08 12:01:43 716

原创 【手把手包会】Python + Ollama + Qwen2 实现本地大语言模型简单调用

导入所需的模块:Ollama 用于语言模型,CallbackManager 和 StreamingStdOutCallbackHandler 用于处理输出流,ChatPromptTemplate 用于创建聊天提示模板。定义了一个函数 initialize_ollama_model 来初始化 Ollama 模型实例,并设置温度和核采样阈值等参数。

2025-04-08 11:58:10 853

原创 【全网最全】AIGC产品经理面试高频100题答案解析

整理了行业内PDF书籍、行业报告、文档,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。AI大模型应用所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。7.7 你觉得你实习/工作期间做的最好的项目是哪个?1、目前人工智能项目一般采用什么算法或模型,近些年的使用的算法或模型有什么变化。

2025-04-08 11:54:04 755

原创 【零基础到精通】AI大模型技术基础学习路线:掌握必备能力,轻松成为大模型专家!

理论其实就是一套描述和解决问题的方法论,只不过不同的技术有不同的方法,也就是理论。‍‍‍‍‍‍‍‍‍‍理论的发展有两种方式,一种是基于实践检验结果总结出来的经验;二种是以严谨的科学理论推导出逻辑自洽的解决某个问题的方法。‍‍‍‍‍‍‍比如说,火是人类生存和进化的重要条件之一,而在远古时期人类对于火的认知还比较浅显,因此那时关于火的理论也比较基础,比如它可以取暖,可以烤熟食物等;这就是基于经验的理论基础。‍‍‍‍。

2025-04-08 11:49:00 471

原创 【机器学习】Qwen2大模型原理、训练及推理部署实战

Qwen2对比Qwen1.5模型尺寸:将Qwen2-7B和Qwen2-72B的模型尺寸有32K提升为128KGQA(分组查询注意力):在Qwen1.5系列中,只有32B和110B的模型使用了GQA。这一次,所有尺寸的模型都使用了GQA,提供GQA加速推理和降低显存占用分组查询注意力 (Grouped Query Attention) 是一种在大型语言模型中的多查询注意力 (MQA) 和多头注意力 (MHA) 之间进行插值的方法,它的目标是在保持 MQA 速度的同时实现 MHA 的质量。

2025-04-07 16:24:32 945

原创 【多模态大模型教程】在自定义数据上使用Qwen-VL多模态大模型的微调与部署指南

提供了这个脚本供用户实现在自己的数据上进行微调的功能,以接入下游任务。此外还提供了shell脚本减少用户的工作量。这个脚本支持 DeepSpeed 和 FSDP。

2025-04-07 14:18:12 746

原创 【大模型实战案例】手把手教大家微调大模型 Llama 3

Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,我们对 Llama 3 进行了微调!!!今天手把手教大家使用 XTuner 微调 Llama 3 模型。

2025-04-07 14:13:09 577

原创 【大模型面试必备】20道大模型经典问题及答案:助你成功通过面试!

大型语言模型(LLM)是一种通过大量文本材料训练的人工智能系统,能够像人类一样理解和生成语言。通过使用机器学习技术识别训练数据中的模式和关联,这些模型能够提供逻辑上和上下文上适当的语言输出。

2025-04-07 12:24:54 482

原创 【大模型】总结优秀的prompt案例,学习更有效的prompt提示词工程写法,值得收藏

强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理和神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。Prompt 提示词工程大多数人都在用,而且都会用,但是不一定写的好?很多人都在想怎么写好,更能满足自己的业务需求,或者实际场景。

2025-04-07 12:20:39 934

原创 【大模型】—AI大模型总体概述

随着人工智能技术的迅猛发展,AI大模型一直被视为推动人工智能领域提升的关键因素,大模型已成为了引领技术浪潮研究和应用方向。大模型是指具有庞大规模和复杂结构的人工智能模型,它们具有数以亿计的参数和深层次的神经网络架构。这些模型通过学习海量数据和深度神经网络的优化,在各种任务上取得了令人瞩目的成果。本文将对AI大模型进行简要介绍,包括其定义、发展历程以及分类等。AI大模型是通过深度学习算法和人工神经网络训练出的具有庞大规模参数的人工智能模型。

2025-04-07 12:16:07 992

原创 【必读】2024 人工智能全景报告《State of AI Report 2024》

10月10日,我们迎来了,该报告已连续七年发布,成为AI行业流行的风向标。报告链接:2024年的《》由AI投资人 Nathan Benaich 和 Air Street Capital 团队制作,有213页,涵盖了__五个方面,对最新的 AI 发展现状和未来预期进行了深度分析。前沿实验室模型性能趋同,OpenAI的o1在推理计算上有优势,Llama 3缩小了与闭源模型差距。同时,中国模型在社区排行榜表现出色。图:OpenAI在推出o1后保持了其领先地位,规划和推理成为主要的研究前沿。

2025-04-07 12:11:04 491

原创 【RAG入门教程】Langchian框架 v0.2介绍

LangChain 是一个开源框架,旨在简化使用大型语言模型 (LLM) 创建应用程序的过程。可以将其想象成一套使用高级语言工具进行搭建的乐高积木。它对于想要构建复杂的基于语言的应用程序而又不必管理直接与语言模型交互的复杂性的开发人员特别有用。它简化了将这些模型集成到应用程序中的过程,使开发人员能够更加专注于应用程序逻辑和用户体验。

2025-04-06 16:56:11 700

原创 【MiniRAG】极致简洁高效的新型RAG系统:重新定义检索增强生成!

对的系统需求日益增长,但RAG框架中部署**小型语言模型(SLMs)**在语义理解和文本处理上存在局限,阻碍了广泛应用。与 LLMs 相比,。:SLMs生成的描述质量明显低于LLMs。:SLMs难以在大篇幅的上下文中找到相关信息,而LLMs则能有效地完成这项任务。为此,香港大学提出并了,这是一种专为而设计的新型RAG系统。MiniRAG引入了两项关键技术创新:(1)一种,将文本块和命名实体结合在一个统一结构中,减少了对复杂语义理解的依赖;(2)一种,利用图结构实现高效的知识发现,而无需高级语言能力。

2025-04-06 16:52:11 687

原创 【LLM大模型】中国AI大模型市场迎来新格局!

AI圈最近又发生了啥新鲜事?

2025-04-06 16:48:36 781

原创 【LLM大模型】聊聊大模型的屏蔽词工程

在做微调训练时,鉴于业务场景的需要,可能会存在微调数据集中含有敏感词汇,譬如:自杀、跳楼等。而开源模型可能没有做敏感词汇的屏蔽工程。因此可能就会出现不可预控的现象,而我遇到的是,当我输入敏感词汇时,模型(基于ChatGLM3)大多数时候返回空,继续正常提问,还是空的。此时模型相当于已经挂了。普遍来看,敏感词汇的覆盖场景是比较多的,尤其是控制不了用户的输入,很有可能就会恶意或无意的输入敏感词,而模型如果不能正常的回复,或是屏蔽这类词汇,很容易就会出现我的问题。

2025-04-06 11:28:10 661

原创 【LLM大模型】Prompt提示词进阶

结构化、模板化编写大模型 Prompt 范式的思想目前已经广为传播并应用;结构化 Prompt 的思想通俗点来说就是。结构化 Prompt 可以有各种各样的模板,你可以像用 PPT 模板一样选择或创造自己喜欢的模板。在写 prompt 的时候,并不一定要包含所有4个元素,而是可以根据自己的需求排列组合。2、最终写出来的 Prompt 是这样的这类思维框架只呈现了 Prompt 的内容框架,但没有提供模板化、结构化的 prompt 形式。

2025-04-06 11:23:44 588

原创 【LLM】Gemma:最新轻量级开源大语言模型实践

Gemma 是由 Google AI 开发的一系列轻量级开源机器学习模型,这些模型易于访问且高效,使 AI 开发更容易为广大用户所接受。Gemma 于 2024 年 2 月 21 日发布,采用与Gemini 模型相同的技术架构。Gemma 是基于文本训练的。它在文本摘要、问答和推理等任务中表现出色。根据可训练参数数量,Gemma 模型有两种主要版本:2B 和 7B,同时它还提供指令调整模型,如 Gemma 2B-FT 和 7B-FT,这些模型专为使用个人数据集进一步定制而设计。

2025-04-06 11:16:00 977

原创 【langchain入门】使用​​langchain​​搭建自己的本地知识库系统

RAG是的缩写,翻译为中文的意思就检索增强,以基于最新,最准确的数据建立LLM的语料知识库。LLMLangChain是一个用于开发由语言模型驱动的应用程序的框架。具有上下文感知能力:将语言模型与上下文源(提示说明、少量镜头示例、基于其响应的内容等)联系起来。原因:依靠语言模型进行推理(关于如何根据提供的上下文回答,采取什么行动等)更多的介绍可以去官网:Introduction | 🦜️🔗 Langchain代码语言:javascriptimport os。

2025-04-06 11:12:14 620

原创 【GraphRAG】构建知识图谱:从技术到实战的完整指南

知识图谱,作为人工智能和语义网技术的重要组成部分,其核心在于将现实世界的对象和概念以及它们之间的多种关系以图形的方式组织起来。它不仅仅是一种数据结构,更是一种知识的表达和存储方式,能够为机器学习提供丰富、结构化的背景知识,从而提升算法的理解和推理能力。在人工智能领域,知识图谱的重要性不言而喻。它提供了一种机器可读的知识表达方式,使计算机能够更好地理解和处理复杂的人类语言和现实世界的关系。通过构建知识图谱,人工智能系统可以更有效地进行知识的整合、推理和查询,从而在众多应用领域发挥重要作用。

2025-04-05 17:33:17 732

原创 【CSDN首发】我敢说全网最详细的AI产品经理学习路线

AI产品经理作为一个新兴且热门的职业,不仅需要具备传统产品经理的能力,还需要对AI技术有深入的理解和应用。本学习路线旨在帮助有志于成为AI产品经理的学习者系统地掌握所需的知识和技能。前排提示,文末有大模型AGI-CSDN独家资料包哦!

2025-04-05 17:29:53 914

原创 【AI模型训练揭秘】到底在训练什么?全面解析模型训练的核心要素!

AI 模型训练是指通过数据驱动的方式,让人工智能(AI)系统从经验中学习,以便在给定的任务上进行预测、分类或生成等操作。这个过程通过优化模型的参数(如神经网络的权重和偏置)来最小化预测误差或损失,从而使模型能够在新数据上做出准确的判断,本文将介绍AI模型中神经网络和神经元的构造,以及AI训练的原理。👀。

2025-04-05 17:25:58 582

原创 【AI开源项目】FastGPT - 快速部署FastGPT以及使用知识库的两种方式!

FastGPT由FastAI团队开发,团队成员包括多位在机器学习和自然语言处理领域有丰富经验的研究人员和工程师。FastAI团队致力于推动深度学习的普及与应用,尤其是在教育和研究领域。团队的专业背景为FastGPT的成功奠定了坚实的基础,确保了模型在设计和实现上的高标准。

2025-04-05 10:40:43 787

原创 【AI大模型应用开发】Function Calling连接外部世界 - 入门与实战(1)

以Python内置的sum函数为例,假设我们想让大模型使用这个函数。这里我们需要定义自己的本地函数,不再使用Python的库函数了。下面的代码,我们定义了两个函数。get_location_coordinate用于查询某个地点的地理坐标。search_nearby_pois用于查询地理坐标附近的某些信息(取决于用户输入的Keyword)python复制代码def get_location_coordinate(location, city=“北京”):print(url)

2025-04-05 10:37:04 756

原创 【AI大模型应用开发】【综合实战】AI+搜索,手把手带你实现属于你的AI搜索引擎(附完整代码)

本文我们从0开始写了一个AI+搜索的搜索引擎。整体原理还是比较简单的,搜索的原理就是固定URL+关键字,然后爬取网页内的标题和URL,就算是结果了。至于文本总结就更不用多说了,前面的文章详细介绍和实践过。这个例子很简单,但应该算比较完整了,可以作为后续类似项目的快速开始,在此基础上快速搭建出自己的原型产品。大家可以上手运行一下,然后运行过程中,你会对这个例子产生一些改进的想法。

2025-04-05 10:33:11 751

原创 【AI大模型部署】牛!手机上轻松部署大模型全攻略!

当前AI革命中,大模型发挥关键角色,其理论基础在于简单来说就是,随着数据、参数和计算能力的提升,模型能力增强,展现出小规模模型所不具备的“涌现能力”。众多AI企业推出开源大模型,规模按扩展定律实现指数增长。然而不可忽视另一趋势,大模型体积正逐渐精简,为私有化部署提供可能性。这在个人隐私保护要求高的场景中尤为重要。无需联网传输数据,直接在设备上运行的AI能增强用户信任。虽然云服务器上的AI可能性能更强,但安全性和可靠性令人担忧。本文介绍几个适合私有化部署的最新大模型,并提供部署指导,

2025-04-05 10:28:50 642

原创 【AI大模型】基于ChatGLM-6b从零开始本地部署语言模型,步骤详细无坑版

ChatGLM-6B 是的一种自然语言处理模型,属于大型生成语言模型系列的一部分。"6B"在这里指的是模型大约拥有60亿个参数,这些参数帮助模型理解和生成语言。ChatGLM-6B 特别设计用于对话任务,能够理解和生成自然、流畅的对话文本。这个模型通过大量的文本数据进行训练,学习如何预测和生成语言中的下一个词,从而能够参与到各种对话场景中。

2025-04-04 14:26:17 987

原创 【AI大模型】Transformer模型:Postion Embedding概述、应用场景和实现方式的详细介绍。

1. 什么是位置嵌入?位置嵌入是一种用于编码序列中元素位置信息的技术。在Transformer模型中,输入序列中的每个元素都会被映射到一个高维空间中的向量表示。然而,传统的自注意力机制并不包含位置信息,因此需要额外的位置嵌入来补充这一信息。位置嵌入通常是一个可学习的参数矩阵,其大小为 [sequence_length, embedding_dim]。这意味着对于每个位置,都有一个对应的嵌入向量。这些向量在训练过程中会被不断调整,以捕捉序列中各个位置的重要性。\2. 位置嵌入的作用。

2025-04-04 14:22:37 735

原创 【AI大模型】Embedding模型解析 文本向量知识库的构建和相似度检索

在大模型中,"embedding"指的是将某种类型的输入数据(如文本、图像、声音等)转换成一个稠密的数值向量的过程。这些向量通常包含较多维度,每一个维度代表输入数据的某种抽象特征或属性。Embedding 的目的是将实际的输入转化为一种格式,使得计算机能够更有效地处理和学习在这里插入图片描述文本Embedding在自然语言处理(NLP)中,文本embedding是一个常见的概念。是将文字或短语转换成数值向量的过程。这些向量捕捉了单词的语义特征,例如意义、上下文关系等。

2025-04-04 14:18:57 660

原创 【AI+本地知识库】个人整理的几种常见本地知识库技术方案

这里列几种常见的本地知识库技术方案,不一定全,排名不会先后。1、MaxKB开源代码地址:https://gitee.com/fit2cloud-feizhiyun/MaxKBMaxKB 是一款基于 LLM 大语言模型的知识库问答系统。MaxKB = Max Knowledge Base,旨在成为企业的最强大脑。开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化,智能问答交互体验好;无缝嵌入:支持零编码快速嵌入到第三方业务系统;

2025-04-04 14:14:17 687

原创 【AI Agent 教程】使用Dify搭建智能体——入门教学

点击创建空白应用选择聊天助手选择基础编排(基础编排很适合新手入门学习)给自己的助手简单的区个名字(中英互译助手),以及对应用进行简单的描述当编排完左边的所有功能之后,就可以通过右边对话框进行测试效果,单个模型测试,多个模型测试都可以。如果效果可行,就可以选择发布,发布的意思也就是保存好你之前的所有编排。!!!如果不发布,直接退出编排界面,之前所有的编排都将功亏一篑。发布之后,就能看到一个完整的AI Bot应用了。接着,再次点击打开这个Bot1.为编排页面2.可以调用API的形式去使用Bot。

2025-04-04 10:55:00 335

原创 『保姆级』大模型教程来了(从入门到实战)

2023年大西洋彼岸的OpenAi公司,AI大模型,正在构建的颠覆力,为了更好的入局AI大模型,,包含🔻 压缩技术中,为什么量化要优于剪枝、蒸馏?🔻 如何搜索裁剪阈值用于裁剪outlier?🔻 包含有异常值outlier的特征如何量化?🔻 模型剪枝的技术背景🔻 模型剪枝具体方法🔻 模型剪枝前沿方法🔻 语言模型剪枝实例🔻 AI作画–以文生图🔻 扩散模型是什么🔻 扩散模型工作拓展🔻 扩散模型带来的机遇🔻 RLHF的优点和挑战🔻 RLHF如何改善大模型性能🔻 RLHF的实际应用案例。

2025-04-04 10:42:54 636

原创 《世界模型》最新综述!

如图1所示,Ha和Schmidhuber [59] 的早期工作专注于抽象化外部世界,以深入理解其内在机制。与此相对,LeCun [98] 认为,世界模型不仅应当感知和建模现实世界,还应具备展望可能未来状态的能力,从而为决策提供指导。像Sora这样的生成视频模型代表了一种更加侧重于模拟未来世界演变的方式,因此,它们与世界模型的预测性方面更为契合。这引发了一个问题:世界模型应优先理解当前世界,还是预测未来状态?本文将从这两个视角出发,提供关于世界模型文献的全面回顾,突出关键方法和挑战。

2025-04-04 10:30:52 877

原创 “我王多鱼投了!”疯狂烧钱的AI大模型公司如何赚钱?

AI大模型到底有多烧钱?或许最有发言权的就是OpenAI了,2022年其亏损大约翻了一番,达到约5.4亿美元。据悉,Altman曾私下建议,OpenAI可能会在未来几年尝试筹集多达1000亿美元的资金,以实现其开发足够先进的通用人工智能。国内的AI公司也不例外。不完全统计,国内头部AI公司智谱AI、百川智能、零一万物、MiniMax和月之暗面,从去年下半年至今已完成了总额超30亿美元的融资,当然,他们也公开表示,在通往AGI的路上,这些钱还远远不够。

2025-04-03 16:32:25 591

原创 [项目推荐]EmoLLM-心理健康大模型

【EmoLLM项目提供了完善的中英文文档,包含了数据-微调-部署-RAG-评测-工具等全链路文档,并提供了社群支持答疑(见下文二维码)。本项目会持续活跃更新,欢迎关注star~】在线体验链接:EmoLLM-温柔御姐艾薇(aiwei)在线体验链接:https://openxlab.org.cn/apps/detail/ajupyter/EmoLLM-aiwei。

2025-04-03 16:26:31 757

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除